DE102011053449A1 - Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge - Google Patents
Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge Download PDFInfo
- Publication number
- DE102011053449A1 DE102011053449A1 DE102011053449A DE102011053449A DE102011053449A1 DE 102011053449 A1 DE102011053449 A1 DE 102011053449A1 DE 102011053449 A DE102011053449 A DE 102011053449A DE 102011053449 A DE102011053449 A DE 102011053449A DE 102011053449 A1 DE102011053449 A1 DE 102011053449A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- interface
- user interface
- sensor
- extremity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 claims abstract description 47
- 230000003044 adaptive effect Effects 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims abstract description 7
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 14
- 230000003068 static effect Effects 0.000 claims description 2
- 230000005670 electromagnetic radiation Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B60K35/10—
-
- B60K2360/141—
-
- B60K2360/146—
Abstract
Ein adaptives Schnittstellensystem weist eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems, einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt, und eine Verarbeitungseinheit auf, die mit dem Sensor und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.
Description
- GEBIET DER ERFINDUNG
- Die vorliegende Erfindung betrifft allgemein eine Mensch-Maschine-Schnittstelle. Insbesondere betrifft die Erfindung ein adaptives Schnittstellensystem und ein Verfahren zum Interagieren mit einer Benutzerschnittstelle durch das Verfolgen eines Benutzers.
- ALLGEMEINER STAND DER TECHNIK
- Gegenwärtige Fahrzeugsysteme weisen Benutzerschnittstellen auf, die eins oder mehrere der folgenden Elemente enthalten: eine Anzeige, einen Berührungsbildschirm, einen Berührungssensor, einen Steuerregler, eine vom Benutzer betätigbare Schaltfläche und andere Steuerelemente. Typischerweise betätigen Benutzer ein Steuerelement durch direkten Kontakt oder physisches Manipulieren. In neuerer Zeit verwenden Fahrzeuge auch Sprachbefehle, um dem Benutzer die Interaktion mit der Fahrzeug-MMS zu ermöglichen. Außerdem wurden einige erweiterte Automobilkonzepte gezeigt, die einfache Hand-/Fingergesten oder Gesten auf handschriftlicher Basis aufweisen.
- Beispielsweise offenbart die US-Patentanmeldungsveröffentlichung Nr. 2009/0309765 ein System und ein Verfahren zum Verwenden von Bildern, die von einer Digitalkamera erfasst werden, um die Navigation über eine dreidimensionale Benutzerschnittstelle zu steuern.
-
US-Patentschrift Nr. 6,624,833 offenbart ein gestenbasiertes Eingabeschnittstellensystem mit Schattenerkennung, wobei das Eingabeschnittstellensystem eine gestenbasierte Benutzersteuerung einer Anwendung vorsieht, die auf einem Computer ausgeführt wird, indem Benutzergesten in Bildsignalen klassifiziert werden. - In
US-Patentschrift Nr. 7,598,942 sind ein System und ein Verfahren zur gestenbasierten Steuerung gezeigt. Das System stellt eine gestenbasierte Schnittstelle zu verschiedenen visuellen Elementen bereit, die auf einem Anzeigebildschirm präsentiert werden. - US-Patentanmeldungsveröffentlichung Nr. 2008/0065291 offenbart ein System und ein Verfahren zum Steuern einer Komponente in einem Fahrzeug mit einem Bildempfangssystem zum Empfangen von Bildern eines Insassen des Fahrzeugs, wobei das System dazu ausgelegt ist, Gesten in den empfangenen Bildern, z. B. Handgesten, zu erkennen, und mit einem Steuersystem, das an das Bildempfangssystem gekoppelt ist, um die Komponente anhand der erkannten Gesten zu steuern.
- Allerdings besteht weiterhin Bedarf an einem präzisen, berührungsfreien Mittel zum interagieren mit einer Benutzerschnittstelle in einer Fahrzeugumgebung.
- Entsprechend wäre es wünschenswert, eine adaptive Benutzerschnittstelle zu entwickeln, wobei eine visuelle Ausgabe der Benutzerschnittstelle automatisch anhand eines Zeigevektors konfiguriert wird, der von einer Position eines Teils eines Körpers eines Benutzers abgeleitet wird, um eine visuelle Ausgabe hervorzuheben, die im Wesentlichen mit dem Zeigevektor übereinstimmt.
- KURZDARSTELLUNG DER ERFINDUNG
- Entsprechend und übereinstimmend mit der vorliegenden Erfindung wurde überraschenderweise eine adaptive Benutzerschnittstelle entdeckt, wobei eine visuelle Ausgabe der Benutzerschnittstelle automatisch anhand eines Zeigevektors konfiguriert wird, der von einer Position eines Körperteils eines Benutzers abgeleitet wird, um eine visuelle Ausgabe hervorzuheben, die im Wesentlichen mit dem Zeigevektor übereinstimmt.
- In einer Ausführungsform umfasst eine adaptive Schnittstelle Folgendes: Eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt; und eine Verarbeitungseinheit, die mit dem Sensor und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.
- In einer anderen Ausführungsform umfasst ein adaptives Schnittstellensystem Folgendes: eine Benutzerschnittstelle, die im Inneren eines Fahrzeug angeordnet ist, wobei die Benutzerschnittstelle Folgendes aufweist: eine Anzeige zum Übermitteln einer Information an einen Benutzer, die einen Zustand eines Fahrzeugsystems darstellt; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das diejenige Position der Extremität des Benutzers darstellt, die der Benutzerschnittstelle am nächsten ist; eine Speichervorrichtung zum Speichern eines Vektorknotenpunkts, der eine geschätzte Position eines Körperteils des Benutzers darstellt; und eine Verarbeitungseinheit, die mit dem Sensor, der Speichervorrichtung und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, einen Zeigevektor der Extremität des Benutzers wenigstens anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt, und die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um eine bestimmte visuelle Ausgabe zu betonen, die auf der Anzeige dargestellt wird.
- Verfahren zum Konfigurieren der Anzeige werden ebenfalls offenbart.
- Ein Verfahren umfasst folgende Schritte: Bereitstellen einer Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; Bereitstellen eines Sensors zum Erkennen einer Position von wenigstens einem Teil einer Extremität eines Körpers eines Benutzers; Definieren eines Vektorknotenpunkts, der einer geschätzten Position eines im Voraus bestimmten Teils des Körpers des Benutzers zugeordnet ist; Bestimmen eines Zeigevektors, der von der Position der Extremität des Körpers des Benutzers und dem Knotenpunkt abgeleitet ist; und Konfigurieren der Benutzerschnittstelle anhand des Zeigevektors, um wenigstens einen Teil der Benutzerschnittstelle innerhalb eines Zeigefelds des Zeigevektors zu bezeichnen.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die oben genannten sowie weitere Vorteile der vorliegenden Erfindung werden für Fachleute anhand der nachfolgenden detaillierten Beschreibung der bevorzugten Ausführungsform unter Bezugnahme auf die begleitenden Zeichnungen deutlich werden. Es zeigen:
-
1 eine perspektivische Teilansicht des Inneren eines Fahrzeugs, das ein adaptives Schnittstellensystem gemäß einer Ausführungsform der vorliegenden Erfindung enthält; -
2 ein schematisches Blockdiagramm des Schnittstellensystems aus1 ; und -
3 eine Teildraufsicht auf das Innere eines Fahrzeugs, das das Schnittstellensystem aus1 enthält, die einen Fahrer darstellt, der das Schnittstellensystem benutzt; und -
4 eine Teildraufsicht auf das Innere eines Fahrzeugs, das das Schnittstellensystem aus1 enthält, die einen Beifahrer darstellt, der das Schnittstellensystem benutzt. - DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
- Die nachfolgende detaillierte Beschreibung und die beiliegenden Zeichnungen beschreiben und veranschaulichen verschiedene Ausführungsformen der Erfindung. Die Beschreibung und die Zeichnungen sollen es Fachleuten ermöglichen, die Erfindung herzustellen und zu nutzen, und dienen nicht dazu, den Umfang der Erfindung in irgendeiner Weise einzuschränken. Hinsichtlich der offenbarten Verfahren sind die dargestellten Schritte rein beispielhafter Natur, weshalb die Reihenfolge der Schritte nicht notwendig oder entscheidend ist.
-
1 –2 zeigen ein adaptives Schnittstellensystem10 für ein Fahrzeug11 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie dargestellt, weist das Schnittstellensystem10 einen Sensor12 , eine Verarbeitungseinheit14 und eine Benutzerschnittstelle16 (oder Steuervorrichtung) auf. Das Schnittstellensystem10 kann nach Wunsch jede beliebige Zahl an Komponenten aufweisen. Das Schnittstellensystem10 kann in jede beliebige Benutzerumgebung integriert sein. - Der Sensor
12 ist eine Benutzerverfolgungsvorrichtung, die dazu in der Lage ist, eine Position von wenigstens einem Teil eines Körpers des Benutzers zu erkennen. Als nicht einschränkendes Beispiel erkennt der Sensor12 eine Position einer Extremität (z. B. einer Fingerspitze, einer Hand, eines Arms usw.) eines Benutzers. - In bestimmten Ausführungsformen ist der Sensor
12 eine CMOS-(complementary metal-oxide-semiconductor, komplementärer Metalloxidhalbleiter)-Kamera zum Erfassen eines Bildes von wenigstens einem Teil eines Arms (z. B. einer Hand, eines Fingers und dergleichen) des Benutzers und zum Erzeugen eines Sensorsignals, das das erfasste Bild darstellt. Allerdings versteht es sich, dass auch andere Kameras und Bilderfassungsvorrichtungen benutzt werden können. Es versteht sich ferner, dass auch andere Sensoren (z. B. unabhängig von oder gepaart mit einem Kamerasensor) benutzt werden können, beispielsweise ein Infrarotsensor oder ein projiziert kapazitiver Sensor12' , der in die Benutzerschnittstelle16 integriert ist. - In bestimmten Ausführungsformen ist eine Strahlungsenergiequelle
18 angeordnet, um wenigstens einen Teil einer Extremität des Benutzers zu beleuchten. Als nicht einschränkendes Beispiel kann die Strahlungsenergiequelle18 eine Infrarotlicht emittierende Diode sein. Allerdings können auch andere Strahlungsenergiequellen benutzt werden. - Bei der Verarbeitungseinheit
14 kann es sich um jede beliebige Vorrichtung oder jedes beliebige System handeln, die bzw. das dazu ausgelegt ist, ein Eingangssignal (z. B. das Sensorsignal) zu empfangen, das Eingangssignal zu analysieren und die Benutzerschnittstelle16 in Reaktion auf die Analyse des Eingangssignals zu konfigurieren. In bestimmten Ausführungsformen ist die Verarbeitungseinheit14 ein Mikrocomputer. In der dargestellten Ausführungsform empfängt die Verarbeitungseinheit14 das Eingangssignal von wenigstens einem der Sensoren12 ,12' und eine vom Benutzer bereitgestellte Eingabe über die Benutzerschnittstelle16 . - Wie dargestellt, analysiert die Verarbeitungseinheit
14 das Eingangssignal anhand eines Befehlssatzes20 . Der Befehlssatz20 , der in jedem beliebigen computerlesbaren Medium verkörpert sein kann, enthält von Verarbeitungseinheiten ausführbare Befehle zum Konfigurieren der Verarbeitungseinheit14 für die Ausführung verschiedener Aufgaben. Die Verarbeitungseinheit14 kann verschiedene Funktionen ausführen, beispielsweise das Steuern des Betriebs des Sensors12 ,12' und der Benutzerschnittstelle16 . Es versteht sich, dass verschiedene Algorithmen und Software benutzt werden können, um ein Bild einer Extremität des Benutzers zu analysieren und einen Zeigevektor21 zu bestimmen, der wenigstens eine Zeigerichtung der Extremität des Benutzers darstellt. - Als nicht einschränkendes Beispiel ist der Befehlssatz
20 ein Lernalgorithmus, der dazu ausgelegt ist, den Zeigevektor einer Extremität eines Benutzers anhand der Informationen zu bestimmen, die von der Verarbeitungseinheit14 (z. B. über das Sensorsignal) empfangen werden. Als weiteres nicht einschränkendes Beispiel bestimmt die Verarbeitungseinheit14 anhand des Zeigevektors21 der Extremität des Benutzers ein Zeigefeld22 (d. h. ein Bezeichnungsfeld), wobei das Zeigefeld22 durch einen vorbestimmten Gradbereich (z. B. +/– fünf Grad) der Abweichung von Zeigevektor21 definiert ist. Es versteht sich, dass jeder beliebige Gradbereich relativ zum berechneten Zeigevektor21 zum Definieren des Zeigefelds22 benutzt werden kann. - In bestimmten Ausführungsformen weist die Verarbeitungseinheit
14 eine Speichervorrichtung23 auf. Bei der Speichervorrichtung23 kann es sich um eine einzelne Speichervorrichtung oder um eine Vielzahl an Speichervorrichtungen handeln. Ferner kann es sich bei der Speichervorrichtung23 um ein Festkörperspeichersystem, ein Magnetspeichersystem, ein optisches Speichersystem oder jedes andere geeignete Speichersystem oder jede andere geeignete Speichervorrichtung handeln. Es versteht sich, dass die Speichervorrichtung23 dazu ausgelegt sein kann, den Befehlssatz20 zu speichern. Auch andere Daten und Informationen können in der Speichervorrichtung23 gespeichert und katalogisiert sein, z. B. die Daten, die vom Sensor12 ,12' und der Benutzerschnittstelle16 erfasst werden, der berechnete Zeigevektor21 und das Zeigefeld22 . In bestimmten Ausführungsformen kann ein im Voraus definierter Vektorknotenpunkt24 , der eine Position eines Teils eines Körpers des Benutzers darstellt, berechnet und zum späteren Abrufen auf der Speichervorrichtung23 gespeichert werden. Es versteht sich, dass eine beliebige Anzahl von Vektorknotenpunkten24 berechnet und gespeichert werden kann, um den Zeigevektor21 zu bestimmen. Es versteht sich ferner, dass jeder einzelne Vektorknotenpunkt24 einen beliebigen Teil des Körpers des Benutzers darstellen kann. - Die Verarbeitungseinheit
14 kann ferner eine programmierbare Komponente25 aufweisen. Es versteht sich, dass die programmierbare Komponente25 in Kommunikation mit jeder beliebigen anderen Komponente des Schnittstellensystems stehen kann, beispielsweise mit dem Sensor12 ,12' und der Benutzerschnittstelle16 . In bestimmten Ausführungsformen ist die programmierbare Komponente25 dazu ausgelegt, Verarbeitungsfunktionen der Verarbeitungseinheit14 zu verwalten und zu steuern. Insbesondere ist die programmierbare Komponente25 dazu ausgelegt, den Befehlssatz20 zu modifizieren und die Analyse der Signale und Informationen zu steuern, die von der Verarbeitungseinheit14 empfangen werden. Es versteht sich, dass die programmierbare Komponente25 dazu ausgelegt sein kann, den Sensor12 und die Benutzerschnittstelle16 zu verwalten und zu steuern. Es versteht sich ferner, dass die programmierbare Komponente25 dazu ausgelegt sein kann, Daten und Informationen auf der Speichervorrichtung23 zu speichern und Daten und Informationen von der Speichervorrichtung23 abzurufen. - Die Benutzerschnittstelle
16 kann jede beliebige Vorrichtung oder Komponente (z. B. Schaltflächen, Berührungsbildschirme, Regler und dergleichen) zum Steuern einer Funktion im Zusammenhang mit dem Fahrzeug11 aufweisen. Es versteht sich, dass die Benutzerschnittstelle16 als eine einzelne Vorrichtung wie z. B. eine Schaltfläche oder eine Steuervorrichtung definiert sein kann. Es versteht sich ferner, dass die Benutzerschnittstelle16 an verschiedenen Positionen im Fahrzeug11 angeordnet sein kann. - Wie dargestellt, weist die Benutzerschnittstelle
16 eine Anzeige26 zum Präsentieren einer sichtbaren Ausgabe an den Benutzer auf. Es versteht sich, dass jede beliebige Anzahl von Anzeigen26 benutzt werden kann. Es versteht sich ferner, dass jede Art von Anzeige benutzt werden kann, beispielsweise eine zweidimensionale Anzeige, eine dreidimensionale Anzeige, ein Berührungsbildschirm und dergleichen. - In der gezeigten Ausführungsform ist die Anzeige
26 eine berührungsempfindliche Anzeige (d. h. ein Berührungsbildschirm), auf dem mehrere vom Benutzer betätigbare Schaltflächen28 präsentiert werden. Die Schaltflächen28 sind einer ausführbaren Funktion eines Fahrzeugsystems30 zugeordnet, beispielsweise eines Navigationssystems, eines Radios, einer Kommunikationsvorrichtung, die dazu ausgelegt ist, eine Verbindung zum Internet herzustellen, und eines Klimatisierungssystems. Allerdings kann den vom Benutzer betätigbaren Schaltflächen28 jedes beliebige Fahrzeugsystem zugeordnet sein. Es versteht sich ferner, dass die Schaltflächen28 in jeder beliebigen Anzahl vorgesehen und an verschiedenen Positionen im Fahrzeug angeordnet sein können, z. B. an einem Lenkrad oder einer Konsole. - Im Betrieb interagiert der Benutzer berührungsfrei mit dem Schnittstellensystem
10 . Die Verarbeitungseinheit14 empfängt fortlaufend die Eingangssignale (z. B. das Sensorsignal) und Informationen zur Position des Benutzers. Die Verarbeitungseinheit14 analysiert das Eingangssignal und die Informationen anhand des Befehlssatzes20 , um den Zeigevektor21 des Benutzers zu bestimmen und in Reaktion auf den Zeigevektor21 eine personalisierte Konfiguration (oder Aktivierung) der Benutzerschnittstelle16 zu erzeugen. Es versteht sich, dass der Benutzer mit einer der vom Benutzer betätigbaren Schaltflächen28 , die in die Anzeige26 integriert sind oder an verschiedenen Positionen im Fahrzeug11 (z. B. an einem Lenkrad, einem Armaturenbrett, einer Konsole oder einer Mittelkonsole) angeordnet sind, (berührungsfrei) interagieren kann. - Als nicht einschränkendes Beispiel wird wenigstens ein Bild einer Extremität des Benutzers erfasst. Das Bild wird über das Sensorsignal an die Verarbeitungseinheit
14 ausgegeben, um den Zeigevektor21 zu berechnen. Als weiteres nicht einschränkendes Beispiel kann der projiziert kapazitive Sensor12' benutzt werden, um das Vorhandensein der Extremität des Körpers des Benutzers innerhalb einer Messzone des Sensors12' zu erkennen. Die vom Sensor12 gesammelten Informationen werden über das Sensorsignal an die Verarbeitungseinheit14 ausgegeben, um den Zeigevektor21 zu berechnen. - Die Verarbeitungseinheit
14 analysiert das Eingangssignal (z. B. das Sensorsignal), um eine Position der Extremität (z. B. Finger, Hand, Arm) des Benutzers relativ zur Benutzerschnittstelle16 zu bestimmen. Als nicht einschränkendes Beispiel werden die Bilddaten, die von dem Sensorsignal dargestellt werden, von der Verarbeitungseinheit14 analysiert, um die Extremität innerhalb des erfassten Bildes zu definieren. In bestimmten Ausführungsformen werden die Pixel des erfassten Bildes analysiert (z. B. Schwellenwertanalyse), um eine Umfangskante der Extremität des Benutzers zu definieren. - Sobald die Extremität im Bild definiert wurde, kann eine relative Position eines Teils (z. B. Fingerspitze) der Extremität des Benutzers, der der Benutzerschnittstelle
16 am nächsten ist, bestimmt werden. Es versteht sich, dass die Position der Extremität relativ zur Benutzerschnittstelle16 anhand einer bekannten Position der Benutzerschnittstelle16 oder anhand weiterer Bildverarbeitungstechniken berechnet werden kann, die im Stand der Technik bekannt sind. Es versteht sich ferner, dass der projiziert kapazitive Sensor12' die Extremität des Benutzers an einer gemessenen Störung des Kapazitätsmessbereichs des Sensors12' lokalisieren kann, wie im Stand der Technik bekannt ist. Ein Fachmann wird verstehen, dass auch andere Sensoren und Positionsbestimmungstechniken benutzt werden können. - Die relative Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle
16 am nächsten ist, wird als einer der Vektorknotenpunkte24 gespeichert. Es versteht sich, dass verschiedene Teile der Extremität des Benutzers durch Vektorknotenpunkte24 bezeichnet und gespeichert werden können. Als nicht einschränkendes Beispiel wird eine Position einer Schulter des Benutzers unabhängig geschätzt und als ein weiterer Vektorknotenpunkt24 gespeichert. Es versteht sich, dass eine Position jedes beliebigen Teils des Körpers des Benutzers geschätzt werden kann. Allerdings wurden zufriedenstellende Ergebnisse erzielt, wenn die Position eines relativ statischen Teils (z. B. Schulter, Hüfte usw.) des Körpers des Benutzers geschätzt wurde, während sich der Benutzer im Fahrzeug11 befand. - Die Verarbeitungseinheit
14 kann dann den Zeigevektor21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte24 ein Ausgleichsgeradenalgorithmus anwendet. Es versteht sich, dass die Verarbeitungseinheit14 anhand der Analyse des Eingangssignals eine Vielzahl von Vektorknotenpunkten24 erzeugen kann. Es versteht sich ferner, dass verschiedene Ausgleichsgeradenalgorithmen benutzt werden können, um den Zeigevektor21 „passend” über die Vektorknotenpunkte24 zu legen. - Sobald der Zeigevektor
21 erzeugt wurde, simuliert die Verarbeitungseinheit14 eine Verlängerung des Zeigevektors21 in Richtung der Benutzerschnittstelle16 (oder jeder beliebigen anderen Komponente, die mit der Verarbeitungseinheit14 in Kommunikation steht, z. B. einer der vom Benutzer betätigbaren Schaltflächen28 ). Der Teil der Benutzerschnittstelle16 (oder anderen Komponente, z. B. vom Benutzer betätigbare Schaltflächen28 ), der den Zeigevektor21 schneidet, stellt eine Mitte des Zeigefelds22 dar. Ein Toleranzbereich um den Mittelpunkt des Zeigefelds22 kann durch im Voraus definierte Einstellungen der Verarbeitungseinheit14 und des Befehlssatzes20 definiert werden. - Anhand des Zeigevektors
21 des Benutzers wird die Benutzerschnittstelle16 automatisch von der Verarbeitungseinheit14 konfiguriert. Als nicht einschränkendes Beispiel konfiguriert die Verarbeitungseinheit14 in Reaktion auf die erkannte Position der Hand des Benutzers und den berechneten Zeigevektor21 automatisch die visuelle Ausgabe, die auf der Anzeige26 präsentiert wird. Als weiteres nicht einschränkendes Beispiel konfiguriert die Verarbeitungseinheit14 anhand des Zeigevektors21 des Benutzers eine ausführbare Funktion, die der Benutzerschnittstelle16 (z. B. der Schaltfläche28 ) zugeordnet ist. Es versteht sich, dass die Verarbeitungseinheit14 eine der vom Benutzer betätigbaren Schaltflächen28 (oder eine andere Steuervorrichtung) konfigurieren (z. B. bezeichnen) kann, die innerhalb des Zeigefelds22 des berechneten Zeigevektors21 liegt. Es versteht sich ferner, dass der Benutzer nach dem Bezeichnen der vom Benutzer betätigbaren Schaltfläche28 (oder Steuervorrichtung) die Schaltfläche28 auslösen kann, um eine dieser zugeordnete Funktion auszuführen. -
3 und4 zeigen Beispiele einer personalisierten Konfiguration (d. h. Bezeichnung). Wie in3 gezeigt, zeigt der Benutzer (z. B. ein Fahrer des Fahrzeugs11 ) auf eine mittlere der vom Benutzer betätigbaren Schaltflächen28 , und wenigstens einer der Sensoren12 ,12' erkennt die Extremität des Benutzers innerhalb einer Messzone. Ein Teil der Extremität des Benutzers, der der Benutzerschnittstelle16 am nächsten ist, wird als einer der Vektorknotenpunkte24 gespeichert. Außerdem wird eine Position einer Schulter des Benutzers geschätzt und als ein weiterer Vektorknotenpunkt24 gespeichert. Die Verarbeitungseinheit14 kann dann den Zeigevektor21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte24 ein Ausgleichsgeradenalgorithmus anwendet. Die Verarbeitungseinheit14 simuliert eine Verlängerung des Zeigevektors21 in Richtung der Benutzerschnittstelle16 . Der Teil der Benutzerschnittstelle16 , der den Zeigevektor21 schneidet, stellt eine Mitte des Zeigefelds22 dar. - Wie dargestellt, liegt die mittlere der Schaltflächen
28 im Zeigefeld22 und wird damit zu der bezeichneten Schaltfläche28' . Beispielsweise kann die bezeichnete Schaltfläche28' stärker beleuchtet werden als die nicht bezeichneten Schaltflächen28 . Als weiteres Beispiel kann die bezeichnete Schaltfläche28 relativ zur Größe der nicht bezeichneten Schaltflächen28 auf der Anzeige26 vergrößert werden. Als weiteres nicht einschränkendes Beispiel wird die bezeichnete Schaltfläche28' von einer dedizierten Lichtquelle (nicht dargestellt) beleuchtet, um einen Bezeichnungszustand (d. h. eine Konfiguration) anzuzeigen. In bestimmten Ausführungsformen wird auf der Anzeige26 im Zeigefeld22 ein visuelles Symbol (nicht dargestellt) oder ein Zeiger präsentiert, um dem Benutzer einen visuellen Hinweise zur Position des Zeigefelds22 zu liefern. - Wie in
4 gezeigt, zeigt der Benutzer (z. B. ein Beifahrer im Fahrzeug11 ) auf eine rechte der vom Benutzer betätigbaren Schaltflächen28 , und wenigstens einer der Sensoren12 ,12' erkennt die Extremität des Benutzers innerhalb einer Messzone. Verschiedenen Teilen der erkannten Extremität des Benutzers werden mehrere Vektorknotenpunkte24 zugewiesen. Die Verarbeitungseinheit14 kann dann den Zeigevektor21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte24 ein Ausgleichsgeradenalgorithmus anwendet. Die Verarbeitungseinheit14 simuliert eine Verlängerung des Zeigevektors21 in Richtung der Benutzerschnittstelle16 . Der Teil der Benutzerschnittstelle16 , der den Zeigevektor21 schneidet, stellt eine Mitte des Zeigefelds22 dar. - Wie dargestellt, liegt die mittlere der Schaltflächen
28 im Zeigefeld22 und wird zur bezeichneten Schaltfläche28' . Beispielsweise kann die bezeichnete Schaltfläche28 stärker beleuchtet werden als die nicht bezeichneten Schaltflächen28 . Als weiteres Beispiel kann die bezeichnete Schaltfläche28' relativ zur Größe der nicht bezeichneten Schaltflächen28 auf der Anzeige26 vergrößert werden. Als weiteres nicht einschränkendes Beispiel wird die bezeichnete Schaltfläche28' von einer dedizierten Lichtquelle (nicht dargestellt) beleuchtet, um einen Bezeichnungszustand (d. h. eine Konfiguration) anzuzeigen. In bestimmten Ausführungsformen wird auf der Anzeige26 im Zeigefeld22 ein visuelles Symbol (nicht dargestellt) oder ein Zeiger präsentiert, um dem Benutzer einen visuellen Hinweise zur Position des Zeigefelds22 zu liefern. - In bestimmten Ausführungsformen wird nur die visuelle Ausgabe im Zeigefeld
22 des Benutzers vollständig beleuchtet, während die visuelle Ausgabe außerhalb des Zeigefelds22 gedämpft beleuchtet oder unsichtbar gemacht wird. Wenn sich der Zeigevektor21 des Benutzers verändert, wird die Benutzerschnittstelle16 automatisch dazu konfiguriert, die visuelle Ausgabe der Anzeige26 im Zeigefeld22 des Benutzers hervorzuheben oder zu betonen. Es versteht sich, dass jede beliebige visuelle Ausgabe der Benutzerschnittstelle16 in ähnlicher Weise wie die bezeichneten Schaltflächen28' des oben stehenden Beispiels konfiguriert werden kann. Es versteht sich ferner, dass abhängig von einem beliebigen Grad der Veränderung zum Zeigevektor21 des Benutzers verschiedene Konfigurationen der Benutzerschnittstelle16 benutzt werden können. Es versteht sich ferner, dass jede beliebige Benutzerschnittstelle, Schaltfläche oder Steuervorrichtung (z. B. Klimaregelung, Radiosteuerung) im Zeigefeld22 bezeichnet werden kann, damit der Benutzer eine dieser zugeordnete Funktion auf berührungsfreie Art und Weise ausführen kann. - Sobald wenigstens ein Teil der Benutzerschnittstelle
16 (oder anderen Komponente, z. B. vom Benutzer betätigbare Schaltflächen28 ) bezeichnet (hervorgehoben, betont) wurde, kann der Benutzer den bezeichneten Teil (z. B. Schaltfläche28' ) auf berührungsfreie Weise betätigen, indem er eine im Voraus definierte Geste mit der Extremität des Körpers des Benutzers ausführt. Beispielsweise kann der Benutzer mit einem Finger das Betätigen eines Abzugs simulieren, um die bezeichnete Schaltfläche28' zu „betätigen”. Die im Voraus definierten Gesten können in Kombination mit anderen Steuerelementen wie z. B. einem Sprachbefehl oder einer physischen Betätigung (z. B. Drücken einer Taste am Lenkrad) benutzt werden, um einen Befehl auszulösen. In bestimmten Ausführungsformen wird ein Benutzer (z. B. Fahrzeugpassagier) aus bestimmten Komponenten und vom Benutzer betätigbaren Schaltflächen28 wie z. B. Steuerelementen für Scheinwerfer und Warnlichter ausgesperrt. - Es versteht sich, dass der Benutzer die Konfiguration der Benutzerschnittstelle
16 und der diesen zugeordneten Funktionen manuell modifizieren kann. Es versteht sich ferner, dass das Schnittstellensystem10 eine selektive Steuerung der automatischen Konfiguration der Benutzerschnittstelle bereitstellen kann. Beispielsweise kann die Benutzerschnittstelle16 stets zur Standardkonfiguration zurückkehren, es sei denn, der Benutzer leitet einen Zeigemodus oder einen berührungsfreien Modus ein, wobei die Benutzerschnittstelle16 automatisch auf die personalisierte Konfiguration konfiguriert wird, die dem Zeigevektor21 eines Benutzers zugeordnet ist. - Das Schnittstellensystem
10 und Verfahren zum Konfigurieren der Benutzerschnittstelle16 stellen eine Echtzeitpersonalisierung der Benutzerschnittstelle16 anhand der Position des Benutzers und des berechneten Zeigevektors21 bereit, wodurch die Aufmerksamkeit des Benutzers auf denjenigen Teil der Benutzerschnittstelle16 im Zeigefeld22 gelenkt wird, während Ablenkungen durch visuelle Ausgaben, denen die Aufmerksamkeit nicht gilt, minimiert werden. - Anhand der vorstehenden Beschreibung wird sich ein Durchschnittsfachmann ohne Weiteres von den wesentlichen Merkmalen dieser Erfindung überzeugen und verschiedene Änderungen und Modifikationen an der Erfindung vornehmen können, um sie an verschiedene Verwendungen und Bedingungen anzupassen, ohne vom Geist und Umfang der Erfindung abzuweichen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 6624833 [0004]
- US 7598942 [0005]
Claims (20)
- Adaptives Schnittstellensystem, umfassend: eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt; und eine Verarbeitungseinheit, die mit dem Sensor in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.
- Schnittstellensystem nach Anspruch 1, wobei die Benutzerschnittstelle eine vom Benutzer betätigbare Schaltfläche aufweist, die einer ausführbaren Funktion des Fahrzeugsystems zugeordnet ist.
- Schnittstellensystem nach Anspruch 1, wobei die Benutzerschnittstelle im Inneren eines Fahrzeugs angeordnet ist.
- Schnittstellensystem nach Anspruch 1, wobei der Sensor eine Verfolgungsvorrichtung zum Erfassen eines Bildes von wenigstens einer Extremität des Benutzers ist.
- Schnittstellensystem nach Anspruch 1, wobei der Sensor ein projiziert kapazitiver Sensor ist.
- Schnittstellensystem nach Anspruch 1, wobei der Sensor in die Benutzerschnittstelle integriert ist, um die Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle zu erkennen.
- Schnittstellensystem nach Anspruch 1, wobei der Befehlssatz ein Algorithmus zum Bestimmen einer Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle ist.
- Schnittstellensystem nach Anspruch 1, wobei der Befehlssatz ein Algorithmus zum Bestimmen des Zeigevektors anhand der Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle und einer geschätzten Position eines anderen Teils des Körpers des Benutzers ist.
- Schnittstellensystem nach Anspruch 1, wobei die Extremität wenigstens eins von einem Finger, einer Hand und einem Arm des Benutzers ist.
- Schnittstellensystem nach Anspruch 1, ferner umfassend eine Quelle elektromagnetischer Strahlung, die wenigstens einen Teil des Benutzers zu beleuchtet, um das Erkennen der Position der Extremität des Benutzers zu ermöglichen.
- Adaptives Schnittstellensystem für ein Fahrzeug, umfassend: eine Benutzerschnittstelle, die im Inneren des Fahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zum Übermitteln einer Information an einen Benutzer aufweist, die einen Zustand eines Fahrzeugsystems darstellt; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position eines Teils der Extremität des Benutzers darstellt, der der Benutzerschnittstelle am nächsten ist; eine Speichervorrichtung zum Speichern eines Vektorknotenpunkts, der eine geschätzte Position eines Körperteils des Benutzers darstellt; und eine Verarbeitungseinheit, die mit dem Sensor, der Speichervorrichtung und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, einen Zeigevektor der Extremität des Benutzers wenigstens anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt, und die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um eine bestimmte visuelle Ausgabe zu betonen, die auf der Anzeige dargestellt wird.
- Schnittstellensystem nach Anspruch 11, wobei der Sensor eine Verfolgungsvorrichtung zum Erfassen eines Bildes von wenigstens einer Extremität des Benutzers ist.
- Schnittstellensystem nach Anspruch 11, wobei der Sensor ein projiziert kapazitiver Sensor ist.
- Schnittstellensystem nach Anspruch 11, wobei der Sensor in die Benutzerschnittstelle integriert ist, um die Position des Teils der Extremität des Benutzers relativ zu der Benutzerschnittstelle zu erkennen.
- Schnittstellensystem nach Anspruch 11, wobei die Verarbeitungseinheit den Zeigevektor durch Berechnen einer Ausgleichsgeraden anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt.
- Schnittstellensystem nach Anspruch 11, wobei die Extremität wenigstens eins von einem Finger, einer Hand und einem Arm des Benutzers ist.
- Schnittstellensystem nach Anspruch 11, wobei die Verarbeitungseinheit die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um einen Teil der visuellen Ausgabe innerhalb eines Zeigefelds des Benutzers hervorzuheben.
- Verfahren zum Konfigurieren einer Anzeige, wobei das Verfahren folgende Schritte umfasst: Bereitstellen einer Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; Bereitstellen eines Sensors zum Erkennen einer Position von wenigstens einem Teil einer Extremität eines Körpers eines Benutzers; Definieren eines Vektorknotenpunkts, der einer geschätzten Position eines im Voraus bestimmten Teils des Körpers des Benutzers zugeordnet ist; Bestimmen eines Zeigevektors, der von der Position der Extremität des Körpers des Benutzers und dem Knotenpunkt abgeleitet ist; und Konfigurieren der Benutzerschnittstelle anhand des Zeigevektors, um wenigstens einen Teil der Benutzerschnittstelle innerhalb eines Zeigefelds des Zeigevektors zu bezeichnen.
- Verfahren nach Anspruch 18, wobei der Vektorknotenpunkt einen Teil des Körpers des Benutzers darstellt, der im Wesentlichen statisch relativ zur Benutzerschnittstelle ist, während der Benutzer mit der Benutzerschnittstelle interagiert.
- Verfahren nach Anspruch 18, wobei der Schritt zum Bestimmen eines Zeigevektors ein Berechnen einer Ausgleichsgeraden anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, umfasst.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/886,795 | 2010-09-21 | ||
US12/886,795 US8760432B2 (en) | 2010-09-21 | 2010-09-21 | Finger pointing, gesture based human-machine interface for vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011053449A1 true DE102011053449A1 (de) | 2012-03-22 |
Family
ID=45769066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011053449A Withdrawn DE102011053449A1 (de) | 2010-09-21 | 2011-09-09 | Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge |
Country Status (3)
Country | Link |
---|---|
US (1) | US8760432B2 (de) |
JP (1) | JP5261554B2 (de) |
DE (1) | DE102011053449A1 (de) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014202490A1 (de) | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
US9956878B2 (en) | 2014-03-07 | 2018-05-01 | Volkswagen Ag | User interface and method for signaling a 3D-position of an input means in the detection of gestures |
Families Citing this family (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102822773A (zh) * | 2010-03-24 | 2012-12-12 | 惠普开发有限公司 | 用于显示设备的手势映射 |
US9285944B1 (en) | 2011-04-22 | 2016-03-15 | Angel A. Penilla | Methods and systems for defining custom vehicle user interface configurations and cloud services for managing applications for the user interface and learned setting functions |
US10217160B2 (en) * | 2012-04-22 | 2019-02-26 | Emerging Automotive, Llc | Methods and systems for processing charge availability and route paths for obtaining charge for electric vehicles |
US9189900B1 (en) | 2011-04-22 | 2015-11-17 | Angel A. Penilla | Methods and systems for assigning e-keys to users to access and drive vehicles |
US9123035B2 (en) | 2011-04-22 | 2015-09-01 | Angel A. Penilla | Electric vehicle (EV) range extending charge systems, distributed networks of charge kiosks, and charge locating mobile apps |
US9493130B2 (en) | 2011-04-22 | 2016-11-15 | Angel A. Penilla | Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input |
US9371007B1 (en) | 2011-04-22 | 2016-06-21 | Angel A. Penilla | Methods and systems for automatic electric vehicle identification and charging via wireless charging pads |
US9809196B1 (en) | 2011-04-22 | 2017-11-07 | Emerging Automotive, Llc | Methods and systems for vehicle security and remote access and safety control interfaces and notifications |
US11203355B2 (en) | 2011-04-22 | 2021-12-21 | Emerging Automotive, Llc | Vehicle mode for restricted operation and cloud data monitoring |
US9818088B2 (en) | 2011-04-22 | 2017-11-14 | Emerging Automotive, Llc | Vehicles and cloud systems for providing recommendations to vehicle users to handle alerts associated with the vehicle |
US9963145B2 (en) | 2012-04-22 | 2018-05-08 | Emerging Automotive, Llc | Connected vehicle communication with processing alerts related to traffic lights and cloud systems |
US11370313B2 (en) | 2011-04-25 | 2022-06-28 | Emerging Automotive, Llc | Methods and systems for electric vehicle (EV) charge units and systems for processing connections to charge units |
US9104537B1 (en) | 2011-04-22 | 2015-08-11 | Angel A. Penilla | Methods and systems for generating setting recommendation to user accounts for registered vehicles via cloud systems and remotely applying settings |
US9648107B1 (en) | 2011-04-22 | 2017-05-09 | Angel A. Penilla | Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes |
US10824330B2 (en) | 2011-04-22 | 2020-11-03 | Emerging Automotive, Llc | Methods and systems for vehicle display data integration with mobile device data |
US9139091B1 (en) | 2011-04-22 | 2015-09-22 | Angel A. Penilla | Methods and systems for setting and/or assigning advisor accounts to entities for specific vehicle aspects and cloud management of advisor accounts |
US10572123B2 (en) | 2011-04-22 | 2020-02-25 | Emerging Automotive, Llc | Vehicle passenger controls via mobile devices |
US9171268B1 (en) | 2011-04-22 | 2015-10-27 | Angel A. Penilla | Methods and systems for setting and transferring user profiles to vehicles and temporary sharing of user profiles to shared-use vehicles |
US9229905B1 (en) | 2011-04-22 | 2016-01-05 | Angel A. Penilla | Methods and systems for defining vehicle user profiles and managing user profiles via cloud systems and applying learned settings to user profiles |
US9581997B1 (en) | 2011-04-22 | 2017-02-28 | Angel A. Penilla | Method and system for cloud-based communication for automatic driverless movement |
US9230440B1 (en) | 2011-04-22 | 2016-01-05 | Angel A. Penilla | Methods and systems for locating public parking and receiving security ratings for parking locations and generating notifications to vehicle user accounts regarding alerts and cloud access to security information |
US9346365B1 (en) | 2011-04-22 | 2016-05-24 | Angel A. Penilla | Methods and systems for electric vehicle (EV) charging, charging unit (CU) interfaces, auxiliary batteries, and remote access and user notifications |
US11132650B2 (en) | 2011-04-22 | 2021-09-28 | Emerging Automotive, Llc | Communication APIs for remote monitoring and control of vehicle systems |
US9697503B1 (en) | 2011-04-22 | 2017-07-04 | Angel A. Penilla | Methods and systems for providing recommendations to vehicle users to handle alerts associated with the vehicle and a bidding market place for handling alerts/service of the vehicle |
US9180783B1 (en) | 2011-04-22 | 2015-11-10 | Penilla Angel A | Methods and systems for electric vehicle (EV) charge location color-coded charge state indicators, cloud applications and user notifications |
US9215274B2 (en) | 2011-04-22 | 2015-12-15 | Angel A. Penilla | Methods and systems for generating recommendations to make settings at vehicles via cloud systems |
US9536197B1 (en) | 2011-04-22 | 2017-01-03 | Angel A. Penilla | Methods and systems for processing data streams from data producing objects of vehicle and home entities and generating recommendations and settings |
US9348492B1 (en) | 2011-04-22 | 2016-05-24 | Angel A. Penilla | Methods and systems for providing access to specific vehicle controls, functions, environment and applications to guests/passengers via personal mobile devices |
US9365188B1 (en) | 2011-04-22 | 2016-06-14 | Angel A. Penilla | Methods and systems for using cloud services to assign e-keys to access vehicles |
US9288270B1 (en) | 2011-04-22 | 2016-03-15 | Angel A. Penilla | Systems for learning user preferences and generating recommendations to make settings at connected vehicles and interfacing with cloud systems |
US11294551B2 (en) | 2011-04-22 | 2022-04-05 | Emerging Automotive, Llc | Vehicle passenger controls via mobile devices |
US10286919B2 (en) | 2011-04-22 | 2019-05-14 | Emerging Automotive, Llc | Valet mode for restricted operation of a vehicle and cloud access of a history of use made during valet mode use |
US11270699B2 (en) | 2011-04-22 | 2022-03-08 | Emerging Automotive, Llc | Methods and vehicles for capturing emotion of a human driver and customizing vehicle response |
US10289288B2 (en) | 2011-04-22 | 2019-05-14 | Emerging Automotive, Llc | Vehicle systems for providing access to vehicle controls, functions, environment and applications to guests/passengers via mobile devices |
US8975903B2 (en) | 2011-06-09 | 2015-03-10 | Ford Global Technologies, Llc | Proximity switch having learned sensitivity and method therefor |
US8928336B2 (en) | 2011-06-09 | 2015-01-06 | Ford Global Technologies, Llc | Proximity switch having sensitivity control and method therefor |
US10004286B2 (en) | 2011-08-08 | 2018-06-26 | Ford Global Technologies, Llc | Glove having conductive ink and method of interacting with proximity sensor |
US20130063336A1 (en) * | 2011-09-08 | 2013-03-14 | Honda Motor Co., Ltd. | Vehicle user interface system |
US9143126B2 (en) | 2011-09-22 | 2015-09-22 | Ford Global Technologies, Llc | Proximity switch having lockout control for controlling movable panel |
US8994228B2 (en) | 2011-11-03 | 2015-03-31 | Ford Global Technologies, Llc | Proximity switch having wrong touch feedback |
US10112556B2 (en) | 2011-11-03 | 2018-10-30 | Ford Global Technologies, Llc | Proximity switch having wrong touch adaptive learning and method |
US8878438B2 (en) | 2011-11-04 | 2014-11-04 | Ford Global Technologies, Llc | Lamp and proximity switch assembly and method |
WO2013074866A1 (en) * | 2011-11-16 | 2013-05-23 | Flextronics Ap, Llc | Feature recognition for configuring a vehicle console and associated devices |
JP5921173B2 (ja) * | 2011-12-12 | 2016-05-24 | 富士通テン株式会社 | 車載装置、及び回転方法 |
US20140309853A1 (en) * | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Vehicle diagnostics and roadside assistance |
US9831870B2 (en) | 2012-04-11 | 2017-11-28 | Ford Global Technologies, Llc | Proximity switch assembly and method of tuning same |
US9559688B2 (en) | 2012-04-11 | 2017-01-31 | Ford Global Technologies, Llc | Proximity switch assembly having pliable surface and depression |
US9197206B2 (en) | 2012-04-11 | 2015-11-24 | Ford Global Technologies, Llc | Proximity switch having differential contact surface |
US9531379B2 (en) | 2012-04-11 | 2016-12-27 | Ford Global Technologies, Llc | Proximity switch assembly having groove between adjacent proximity sensors |
US9944237B2 (en) | 2012-04-11 | 2018-04-17 | Ford Global Technologies, Llc | Proximity switch assembly with signal drift rejection and method |
US9287864B2 (en) | 2012-04-11 | 2016-03-15 | Ford Global Technologies, Llc | Proximity switch assembly and calibration method therefor |
US9219472B2 (en) | 2012-04-11 | 2015-12-22 | Ford Global Technologies, Llc | Proximity switch assembly and activation method using rate monitoring |
US9184745B2 (en) | 2012-04-11 | 2015-11-10 | Ford Global Technologies, Llc | Proximity switch assembly and method of sensing user input based on signal rate of change |
US9520875B2 (en) | 2012-04-11 | 2016-12-13 | Ford Global Technologies, Llc | Pliable proximity switch assembly and activation method |
US8933708B2 (en) | 2012-04-11 | 2015-01-13 | Ford Global Technologies, Llc | Proximity switch assembly and activation method with exploration mode |
US9568527B2 (en) | 2012-04-11 | 2017-02-14 | Ford Global Technologies, Llc | Proximity switch assembly and activation method having virtual button mode |
US9660644B2 (en) | 2012-04-11 | 2017-05-23 | Ford Global Technologies, Llc | Proximity switch assembly and activation method |
US9065447B2 (en) | 2012-04-11 | 2015-06-23 | Ford Global Technologies, Llc | Proximity switch assembly and method having adaptive time delay |
US9136840B2 (en) | 2012-05-17 | 2015-09-15 | Ford Global Technologies, Llc | Proximity switch assembly having dynamic tuned threshold |
US8981602B2 (en) | 2012-05-29 | 2015-03-17 | Ford Global Technologies, Llc | Proximity switch assembly having non-switch contact and method |
US9337832B2 (en) | 2012-06-06 | 2016-05-10 | Ford Global Technologies, Llc | Proximity switch and method of adjusting sensitivity therefor |
US9641172B2 (en) | 2012-06-27 | 2017-05-02 | Ford Global Technologies, Llc | Proximity switch assembly having varying size electrode fingers |
DE102013209721A1 (de) | 2012-08-20 | 2014-02-20 | Johnson Controls Gmbh | Verfahren zur Kalibrierung einer TOF-Kamera |
US8922340B2 (en) | 2012-09-11 | 2014-12-30 | Ford Global Technologies, Llc | Proximity switch based door latch release |
DE102012216193B4 (de) * | 2012-09-12 | 2020-07-30 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten |
FR2995836B1 (fr) * | 2012-09-27 | 2015-05-22 | Valeo Systemes Thermiques | Module de commande |
US8796575B2 (en) | 2012-10-31 | 2014-08-05 | Ford Global Technologies, Llc | Proximity switch assembly having ground layer |
CN104049872B (zh) * | 2013-03-13 | 2018-01-05 | 本田技研工业株式会社 | 利用指向的信息查询 |
US9311204B2 (en) | 2013-03-13 | 2016-04-12 | Ford Global Technologies, Llc | Proximity interface development system having replicator and method |
US8886399B2 (en) | 2013-03-15 | 2014-11-11 | Honda Motor Co., Ltd. | System and method for controlling a vehicle user interface based on gesture angle |
US8818716B1 (en) | 2013-03-15 | 2014-08-26 | Honda Motor Co., Ltd. | System and method for gesture-based point of interest search |
JP2015019279A (ja) * | 2013-07-11 | 2015-01-29 | 京セラディスプレイ株式会社 | 電子機器 |
US9817521B2 (en) | 2013-11-02 | 2017-11-14 | At&T Intellectual Property I, L.P. | Gesture detection |
US10025431B2 (en) | 2013-11-13 | 2018-07-17 | At&T Intellectual Property I, L.P. | Gesture detection |
DE102014204800A1 (de) * | 2014-03-14 | 2015-09-17 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer graphischen Nutzerschnittstelle in einem Fahrzeug |
US9330306B2 (en) | 2014-06-11 | 2016-05-03 | Panasonic Intellectual Property Management Co., Ltd. | 3D gesture stabilization for robust input control in mobile environments |
US10936050B2 (en) | 2014-06-16 | 2021-03-02 | Honda Motor Co., Ltd. | Systems and methods for user indication recognition |
US9501810B2 (en) * | 2014-09-12 | 2016-11-22 | General Electric Company | Creating a virtual environment for touchless interaction |
KR101556521B1 (ko) * | 2014-10-06 | 2015-10-13 | 현대자동차주식회사 | 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법 |
US10038443B2 (en) | 2014-10-20 | 2018-07-31 | Ford Global Technologies, Llc | Directional proximity switch assembly |
KR101866740B1 (ko) * | 2014-11-13 | 2018-06-15 | 현대자동차주식회사 | 터치 입력장치 및 이를 포함하는 차량 |
US9654103B2 (en) | 2015-03-18 | 2017-05-16 | Ford Global Technologies, Llc | Proximity switch assembly having haptic feedback and method |
TWI552892B (zh) * | 2015-04-14 | 2016-10-11 | 鴻海精密工業股份有限公司 | 車輛控制系統及其操作方法 |
US9548733B2 (en) | 2015-05-20 | 2017-01-17 | Ford Global Technologies, Llc | Proximity sensor assembly having interleaved electrode configuration |
WO2017013805A1 (ja) * | 2015-07-23 | 2017-01-26 | 富士通株式会社 | 入力装置、入力支援方法および入力支援プログラム |
US9983407B2 (en) | 2015-09-11 | 2018-05-29 | Honda Motor Co., Ltd. | Managing points of interest |
US10692126B2 (en) | 2015-11-17 | 2020-06-23 | Nio Usa, Inc. | Network-based system for selling and servicing cars |
US10606378B2 (en) * | 2015-11-20 | 2020-03-31 | Harman International Industries, Incorporated | Dynamic reconfigurable display knobs |
US20180012197A1 (en) | 2016-07-07 | 2018-01-11 | NextEv USA, Inc. | Battery exchange licensing program based on state of charge of battery pack |
US9928734B2 (en) | 2016-08-02 | 2018-03-27 | Nio Usa, Inc. | Vehicle-to-pedestrian communication systems |
US10031523B2 (en) | 2016-11-07 | 2018-07-24 | Nio Usa, Inc. | Method and system for behavioral sharing in autonomous vehicles |
US10708547B2 (en) | 2016-11-11 | 2020-07-07 | Nio Usa, Inc. | Using vehicle sensor data to monitor environmental and geologic conditions |
US10694357B2 (en) | 2016-11-11 | 2020-06-23 | Nio Usa, Inc. | Using vehicle sensor data to monitor pedestrian health |
US10410064B2 (en) | 2016-11-11 | 2019-09-10 | Nio Usa, Inc. | System for tracking and identifying vehicles and pedestrians |
US10515390B2 (en) | 2016-11-21 | 2019-12-24 | Nio Usa, Inc. | Method and system for data optimization |
US10249104B2 (en) | 2016-12-06 | 2019-04-02 | Nio Usa, Inc. | Lease observation and event recording |
US10074223B2 (en) | 2017-01-13 | 2018-09-11 | Nio Usa, Inc. | Secured vehicle for user use only |
US9984572B1 (en) | 2017-01-16 | 2018-05-29 | Nio Usa, Inc. | Method and system for sharing parking space availability among autonomous vehicles |
US10031521B1 (en) | 2017-01-16 | 2018-07-24 | Nio Usa, Inc. | Method and system for using weather information in operation of autonomous vehicles |
US10471829B2 (en) | 2017-01-16 | 2019-11-12 | Nio Usa, Inc. | Self-destruct zone and autonomous vehicle navigation |
US10286915B2 (en) | 2017-01-17 | 2019-05-14 | Nio Usa, Inc. | Machine learning for personalized driving |
US10464530B2 (en) | 2017-01-17 | 2019-11-05 | Nio Usa, Inc. | Voice biometric pre-purchase enrollment for autonomous vehicles |
US11321951B1 (en) * | 2017-01-19 | 2022-05-03 | State Farm Mutual Automobile Insurance Company | Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps |
US10897469B2 (en) | 2017-02-02 | 2021-01-19 | Nio Usa, Inc. | System and method for firewalls between vehicle networks |
US10234302B2 (en) | 2017-06-27 | 2019-03-19 | Nio Usa, Inc. | Adaptive route and motion planning based on learned external and internal vehicle environment |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10837790B2 (en) | 2017-08-01 | 2020-11-17 | Nio Usa, Inc. | Productive and accident-free driving modes for a vehicle |
US10635109B2 (en) | 2017-10-17 | 2020-04-28 | Nio Usa, Inc. | Vehicle path-planner monitor and controller |
US10935978B2 (en) | 2017-10-30 | 2021-03-02 | Nio Usa, Inc. | Vehicle self-localization using particle filters and visual odometry |
US10606274B2 (en) | 2017-10-30 | 2020-03-31 | Nio Usa, Inc. | Visual place recognition based self-localization for autonomous vehicles |
US10717412B2 (en) | 2017-11-13 | 2020-07-21 | Nio Usa, Inc. | System and method for controlling a vehicle using secondary access methods |
CN111417957B (zh) * | 2018-01-03 | 2023-10-27 | 索尼半导体解决方案公司 | 使用移动装置的姿势识别 |
US10369966B1 (en) | 2018-05-23 | 2019-08-06 | Nio Usa, Inc. | Controlling access to a vehicle using wireless access devices |
US11106315B2 (en) | 2018-11-29 | 2021-08-31 | International Business Machines Corporation | Touch screen device facilitating estimation of entity orientation and identity |
CN111169409B (zh) * | 2020-02-21 | 2022-03-18 | 广州小鹏汽车科技有限公司 | 一种控制方法和车辆 |
WO2021237305A1 (en) * | 2020-05-29 | 2021-12-02 | Marthinus Van Der Merwe | A contactless touchscreen interface |
WO2022043148A1 (en) * | 2020-08-27 | 2022-03-03 | Interdigital Ce Patent Holdings, Sas | Method and apparatus for controlling at least a part of a device |
CN114274158B (zh) * | 2021-12-31 | 2024-02-02 | 北京博清科技有限公司 | 爬行焊接机器人的控制方法、控制器以及焊接系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6624833B1 (en) | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05324181A (ja) * | 1992-05-26 | 1993-12-07 | Takenaka Komuten Co Ltd | ハンドポインティング式入力装置 |
US6176782B1 (en) * | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
US20050024338A1 (en) | 2001-03-29 | 2005-02-03 | International Business Machines Corporation | Finger-identifying keyboard |
US7133021B2 (en) | 2001-06-09 | 2006-11-07 | Coghan Iv Francis F | Finger-fitting pointing device |
US20030132913A1 (en) | 2002-01-11 | 2003-07-17 | Anton Issinski | Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras |
US20040080493A1 (en) | 2002-10-25 | 2004-04-29 | Shahar Kenin | Index-finger computer mouse |
US20080065291A1 (en) | 2002-11-04 | 2008-03-13 | Automotive Technologies International, Inc. | Gesture-Based Control of Vehicular Components |
EP2093650B1 (de) | 2002-11-20 | 2013-05-15 | Koninklijke Philips Electronics N.V. | Benutzerschnittstellensystem auf der Basis eines Zeigegeräts |
JP4035610B2 (ja) * | 2002-12-18 | 2008-01-23 | 独立行政法人産業技術総合研究所 | インタフェース装置 |
US20070130547A1 (en) | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
US8614669B2 (en) * | 2006-03-13 | 2013-12-24 | Navisense | Touchless tablet method and system thereof |
WO2008010024A1 (en) | 2006-07-16 | 2008-01-24 | Cherradi I | Free fingers typing technology |
US8354997B2 (en) | 2006-10-31 | 2013-01-15 | Navisense | Touchless user interface for a mobile device |
CN101369180A (zh) | 2007-08-15 | 2009-02-18 | 联想(北京)有限公司 | 手指指点装置 |
US8269842B2 (en) | 2008-06-11 | 2012-09-18 | Nokia Corporation | Camera gestures for user interface control |
CN102112945B (zh) | 2008-06-18 | 2016-08-10 | 奥布隆工业有限公司 | 用于交通工具接口的基于姿态的控制系统 |
US20090327974A1 (en) | 2008-06-26 | 2009-12-31 | Microsoft Corporation | User interface for gestural control |
-
2010
- 2010-09-21 US US12/886,795 patent/US8760432B2/en not_active Expired - Fee Related
-
2011
- 2011-09-09 DE DE102011053449A patent/DE102011053449A1/de not_active Withdrawn
- 2011-09-15 JP JP2011202049A patent/JP5261554B2/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6624833B1 (en) | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014202490A1 (de) | 2014-02-12 | 2015-08-13 | Volkswagen Aktiengesellschaft | Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe |
WO2015121056A1 (de) | 2014-02-12 | 2015-08-20 | Volkswagen Aktiengesellschaft | Vorrichtung und verfahren zur signalisierung einer erfolgreichen gesteneingabe |
US9858702B2 (en) | 2014-02-12 | 2018-01-02 | Volkswagen Aktiengesellschaft | Device and method for signalling a successful gesture input |
US9956878B2 (en) | 2014-03-07 | 2018-05-01 | Volkswagen Ag | User interface and method for signaling a 3D-position of an input means in the detection of gestures |
Also Published As
Publication number | Publication date |
---|---|
US20120068956A1 (en) | 2012-03-22 |
US8760432B2 (en) | 2014-06-24 |
JP2012069114A (ja) | 2012-04-05 |
JP5261554B2 (ja) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011053449A1 (de) | Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge | |
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
EP3013621B1 (de) | Kraftfahrzeug-bedienschnittstelle mit gestenerkennung | |
DE102011050942A1 (de) | Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking | |
EP2179346B1 (de) | Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung | |
DE112014000496T5 (de) | Benutzerschnittstellenvorrichtung und Eingabeerfassungsverfahren | |
WO2017211817A1 (de) | Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung | |
EP2943367A1 (de) | Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs | |
EP2915022B1 (de) | Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens | |
DE202015105611U1 (de) | Vorrichtung zur Gestensteuerung in einem Fahrzeug | |
DE102013100328A1 (de) | Adaptives Schnittstellensystem | |
WO2014108147A1 (de) | Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung | |
EP3254172B1 (de) | Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug | |
DE102017113763B4 (de) | Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug | |
DE102018220693B4 (de) | Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen | |
DE102014224599A1 (de) | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung | |
WO2014067798A1 (de) | Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays | |
EP3426516B1 (de) | Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung | |
DE102022102504B9 (de) | Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug | |
DE102013211046A1 (de) | Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste | |
DE102012218155A1 (de) | Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug | |
DE102018211908A1 (de) | Verfahren für das Erfassen eines digitalen Bildes einer Umgebung eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer Bilderfassungseinrichtung | |
DE102020106021A1 (de) | Verfahren und system zum betreiben eines auswahlmenüs einer grafischen benutzeroberfläche basierend auf dem erfassen einer rotierenden freiraumgeste | |
DE102014217969A1 (de) | Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung | |
DE102016201981A1 (de) | Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |