DE102011053449A1 - Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge - Google Patents

Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge Download PDF

Info

Publication number
DE102011053449A1
DE102011053449A1 DE102011053449A DE102011053449A DE102011053449A1 DE 102011053449 A1 DE102011053449 A1 DE 102011053449A1 DE 102011053449 A DE102011053449 A DE 102011053449A DE 102011053449 A DE102011053449 A DE 102011053449A DE 102011053449 A1 DE102011053449 A1 DE 102011053449A1
Authority
DE
Germany
Prior art keywords
user
interface
user interface
sensor
extremity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011053449A
Other languages
English (en)
Inventor
Joseph C. Jira
Theodore C. Wingrove
Royce Duchante' Channey
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102011053449A1 publication Critical patent/DE102011053449A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • B60K35/10
    • B60K2360/141
    • B60K2360/146

Abstract

Ein adaptives Schnittstellensystem weist eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems, einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt, und eine Verarbeitungseinheit auf, die mit dem Sensor und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft allgemein eine Mensch-Maschine-Schnittstelle. Insbesondere betrifft die Erfindung ein adaptives Schnittstellensystem und ein Verfahren zum Interagieren mit einer Benutzerschnittstelle durch das Verfolgen eines Benutzers.
  • ALLGEMEINER STAND DER TECHNIK
  • Gegenwärtige Fahrzeugsysteme weisen Benutzerschnittstellen auf, die eins oder mehrere der folgenden Elemente enthalten: eine Anzeige, einen Berührungsbildschirm, einen Berührungssensor, einen Steuerregler, eine vom Benutzer betätigbare Schaltfläche und andere Steuerelemente. Typischerweise betätigen Benutzer ein Steuerelement durch direkten Kontakt oder physisches Manipulieren. In neuerer Zeit verwenden Fahrzeuge auch Sprachbefehle, um dem Benutzer die Interaktion mit der Fahrzeug-MMS zu ermöglichen. Außerdem wurden einige erweiterte Automobilkonzepte gezeigt, die einfache Hand-/Fingergesten oder Gesten auf handschriftlicher Basis aufweisen.
  • Beispielsweise offenbart die US-Patentanmeldungsveröffentlichung Nr. 2009/0309765 ein System und ein Verfahren zum Verwenden von Bildern, die von einer Digitalkamera erfasst werden, um die Navigation über eine dreidimensionale Benutzerschnittstelle zu steuern.
  • US-Patentschrift Nr. 6,624,833 offenbart ein gestenbasiertes Eingabeschnittstellensystem mit Schattenerkennung, wobei das Eingabeschnittstellensystem eine gestenbasierte Benutzersteuerung einer Anwendung vorsieht, die auf einem Computer ausgeführt wird, indem Benutzergesten in Bildsignalen klassifiziert werden.
  • In US-Patentschrift Nr. 7,598,942 sind ein System und ein Verfahren zur gestenbasierten Steuerung gezeigt. Das System stellt eine gestenbasierte Schnittstelle zu verschiedenen visuellen Elementen bereit, die auf einem Anzeigebildschirm präsentiert werden.
  • US-Patentanmeldungsveröffentlichung Nr. 2008/0065291 offenbart ein System und ein Verfahren zum Steuern einer Komponente in einem Fahrzeug mit einem Bildempfangssystem zum Empfangen von Bildern eines Insassen des Fahrzeugs, wobei das System dazu ausgelegt ist, Gesten in den empfangenen Bildern, z. B. Handgesten, zu erkennen, und mit einem Steuersystem, das an das Bildempfangssystem gekoppelt ist, um die Komponente anhand der erkannten Gesten zu steuern.
  • Allerdings besteht weiterhin Bedarf an einem präzisen, berührungsfreien Mittel zum interagieren mit einer Benutzerschnittstelle in einer Fahrzeugumgebung.
  • Entsprechend wäre es wünschenswert, eine adaptive Benutzerschnittstelle zu entwickeln, wobei eine visuelle Ausgabe der Benutzerschnittstelle automatisch anhand eines Zeigevektors konfiguriert wird, der von einer Position eines Teils eines Körpers eines Benutzers abgeleitet wird, um eine visuelle Ausgabe hervorzuheben, die im Wesentlichen mit dem Zeigevektor übereinstimmt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Entsprechend und übereinstimmend mit der vorliegenden Erfindung wurde überraschenderweise eine adaptive Benutzerschnittstelle entdeckt, wobei eine visuelle Ausgabe der Benutzerschnittstelle automatisch anhand eines Zeigevektors konfiguriert wird, der von einer Position eines Körperteils eines Benutzers abgeleitet wird, um eine visuelle Ausgabe hervorzuheben, die im Wesentlichen mit dem Zeigevektor übereinstimmt.
  • In einer Ausführungsform umfasst eine adaptive Schnittstelle Folgendes: Eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt; und eine Verarbeitungseinheit, die mit dem Sensor und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.
  • In einer anderen Ausführungsform umfasst ein adaptives Schnittstellensystem Folgendes: eine Benutzerschnittstelle, die im Inneren eines Fahrzeug angeordnet ist, wobei die Benutzerschnittstelle Folgendes aufweist: eine Anzeige zum Übermitteln einer Information an einen Benutzer, die einen Zustand eines Fahrzeugsystems darstellt; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das diejenige Position der Extremität des Benutzers darstellt, die der Benutzerschnittstelle am nächsten ist; eine Speichervorrichtung zum Speichern eines Vektorknotenpunkts, der eine geschätzte Position eines Körperteils des Benutzers darstellt; und eine Verarbeitungseinheit, die mit dem Sensor, der Speichervorrichtung und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, einen Zeigevektor der Extremität des Benutzers wenigstens anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt, und die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um eine bestimmte visuelle Ausgabe zu betonen, die auf der Anzeige dargestellt wird.
  • Verfahren zum Konfigurieren der Anzeige werden ebenfalls offenbart.
  • Ein Verfahren umfasst folgende Schritte: Bereitstellen einer Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; Bereitstellen eines Sensors zum Erkennen einer Position von wenigstens einem Teil einer Extremität eines Körpers eines Benutzers; Definieren eines Vektorknotenpunkts, der einer geschätzten Position eines im Voraus bestimmten Teils des Körpers des Benutzers zugeordnet ist; Bestimmen eines Zeigevektors, der von der Position der Extremität des Körpers des Benutzers und dem Knotenpunkt abgeleitet ist; und Konfigurieren der Benutzerschnittstelle anhand des Zeigevektors, um wenigstens einen Teil der Benutzerschnittstelle innerhalb eines Zeigefelds des Zeigevektors zu bezeichnen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die oben genannten sowie weitere Vorteile der vorliegenden Erfindung werden für Fachleute anhand der nachfolgenden detaillierten Beschreibung der bevorzugten Ausführungsform unter Bezugnahme auf die begleitenden Zeichnungen deutlich werden. Es zeigen:
  • 1 eine perspektivische Teilansicht des Inneren eines Fahrzeugs, das ein adaptives Schnittstellensystem gemäß einer Ausführungsform der vorliegenden Erfindung enthält;
  • 2 ein schematisches Blockdiagramm des Schnittstellensystems aus 1; und
  • 3 eine Teildraufsicht auf das Innere eines Fahrzeugs, das das Schnittstellensystem aus 1 enthält, die einen Fahrer darstellt, der das Schnittstellensystem benutzt; und
  • 4 eine Teildraufsicht auf das Innere eines Fahrzeugs, das das Schnittstellensystem aus 1 enthält, die einen Beifahrer darstellt, der das Schnittstellensystem benutzt.
  • DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN DER ERFINDUNG
  • Die nachfolgende detaillierte Beschreibung und die beiliegenden Zeichnungen beschreiben und veranschaulichen verschiedene Ausführungsformen der Erfindung. Die Beschreibung und die Zeichnungen sollen es Fachleuten ermöglichen, die Erfindung herzustellen und zu nutzen, und dienen nicht dazu, den Umfang der Erfindung in irgendeiner Weise einzuschränken. Hinsichtlich der offenbarten Verfahren sind die dargestellten Schritte rein beispielhafter Natur, weshalb die Reihenfolge der Schritte nicht notwendig oder entscheidend ist.
  • 12 zeigen ein adaptives Schnittstellensystem 10 für ein Fahrzeug 11 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie dargestellt, weist das Schnittstellensystem 10 einen Sensor 12, eine Verarbeitungseinheit 14 und eine Benutzerschnittstelle 16 (oder Steuervorrichtung) auf. Das Schnittstellensystem 10 kann nach Wunsch jede beliebige Zahl an Komponenten aufweisen. Das Schnittstellensystem 10 kann in jede beliebige Benutzerumgebung integriert sein.
  • Der Sensor 12 ist eine Benutzerverfolgungsvorrichtung, die dazu in der Lage ist, eine Position von wenigstens einem Teil eines Körpers des Benutzers zu erkennen. Als nicht einschränkendes Beispiel erkennt der Sensor 12 eine Position einer Extremität (z. B. einer Fingerspitze, einer Hand, eines Arms usw.) eines Benutzers.
  • In bestimmten Ausführungsformen ist der Sensor 12 eine CMOS-(complementary metal-oxide-semiconductor, komplementärer Metalloxidhalbleiter)-Kamera zum Erfassen eines Bildes von wenigstens einem Teil eines Arms (z. B. einer Hand, eines Fingers und dergleichen) des Benutzers und zum Erzeugen eines Sensorsignals, das das erfasste Bild darstellt. Allerdings versteht es sich, dass auch andere Kameras und Bilderfassungsvorrichtungen benutzt werden können. Es versteht sich ferner, dass auch andere Sensoren (z. B. unabhängig von oder gepaart mit einem Kamerasensor) benutzt werden können, beispielsweise ein Infrarotsensor oder ein projiziert kapazitiver Sensor 12', der in die Benutzerschnittstelle 16 integriert ist.
  • In bestimmten Ausführungsformen ist eine Strahlungsenergiequelle 18 angeordnet, um wenigstens einen Teil einer Extremität des Benutzers zu beleuchten. Als nicht einschränkendes Beispiel kann die Strahlungsenergiequelle 18 eine Infrarotlicht emittierende Diode sein. Allerdings können auch andere Strahlungsenergiequellen benutzt werden.
  • Bei der Verarbeitungseinheit 14 kann es sich um jede beliebige Vorrichtung oder jedes beliebige System handeln, die bzw. das dazu ausgelegt ist, ein Eingangssignal (z. B. das Sensorsignal) zu empfangen, das Eingangssignal zu analysieren und die Benutzerschnittstelle 16 in Reaktion auf die Analyse des Eingangssignals zu konfigurieren. In bestimmten Ausführungsformen ist die Verarbeitungseinheit 14 ein Mikrocomputer. In der dargestellten Ausführungsform empfängt die Verarbeitungseinheit 14 das Eingangssignal von wenigstens einem der Sensoren 12, 12' und eine vom Benutzer bereitgestellte Eingabe über die Benutzerschnittstelle 16.
  • Wie dargestellt, analysiert die Verarbeitungseinheit 14 das Eingangssignal anhand eines Befehlssatzes 20. Der Befehlssatz 20, der in jedem beliebigen computerlesbaren Medium verkörpert sein kann, enthält von Verarbeitungseinheiten ausführbare Befehle zum Konfigurieren der Verarbeitungseinheit 14 für die Ausführung verschiedener Aufgaben. Die Verarbeitungseinheit 14 kann verschiedene Funktionen ausführen, beispielsweise das Steuern des Betriebs des Sensors 12, 12' und der Benutzerschnittstelle 16. Es versteht sich, dass verschiedene Algorithmen und Software benutzt werden können, um ein Bild einer Extremität des Benutzers zu analysieren und einen Zeigevektor 21 zu bestimmen, der wenigstens eine Zeigerichtung der Extremität des Benutzers darstellt.
  • Als nicht einschränkendes Beispiel ist der Befehlssatz 20 ein Lernalgorithmus, der dazu ausgelegt ist, den Zeigevektor einer Extremität eines Benutzers anhand der Informationen zu bestimmen, die von der Verarbeitungseinheit 14 (z. B. über das Sensorsignal) empfangen werden. Als weiteres nicht einschränkendes Beispiel bestimmt die Verarbeitungseinheit 14 anhand des Zeigevektors 21 der Extremität des Benutzers ein Zeigefeld 22 (d. h. ein Bezeichnungsfeld), wobei das Zeigefeld 22 durch einen vorbestimmten Gradbereich (z. B. +/– fünf Grad) der Abweichung von Zeigevektor 21 definiert ist. Es versteht sich, dass jeder beliebige Gradbereich relativ zum berechneten Zeigevektor 21 zum Definieren des Zeigefelds 22 benutzt werden kann.
  • In bestimmten Ausführungsformen weist die Verarbeitungseinheit 14 eine Speichervorrichtung 23 auf. Bei der Speichervorrichtung 23 kann es sich um eine einzelne Speichervorrichtung oder um eine Vielzahl an Speichervorrichtungen handeln. Ferner kann es sich bei der Speichervorrichtung 23 um ein Festkörperspeichersystem, ein Magnetspeichersystem, ein optisches Speichersystem oder jedes andere geeignete Speichersystem oder jede andere geeignete Speichervorrichtung handeln. Es versteht sich, dass die Speichervorrichtung 23 dazu ausgelegt sein kann, den Befehlssatz 20 zu speichern. Auch andere Daten und Informationen können in der Speichervorrichtung 23 gespeichert und katalogisiert sein, z. B. die Daten, die vom Sensor 12, 12' und der Benutzerschnittstelle 16 erfasst werden, der berechnete Zeigevektor 21 und das Zeigefeld 22. In bestimmten Ausführungsformen kann ein im Voraus definierter Vektorknotenpunkt 24, der eine Position eines Teils eines Körpers des Benutzers darstellt, berechnet und zum späteren Abrufen auf der Speichervorrichtung 23 gespeichert werden. Es versteht sich, dass eine beliebige Anzahl von Vektorknotenpunkten 24 berechnet und gespeichert werden kann, um den Zeigevektor 21 zu bestimmen. Es versteht sich ferner, dass jeder einzelne Vektorknotenpunkt 24 einen beliebigen Teil des Körpers des Benutzers darstellen kann.
  • Die Verarbeitungseinheit 14 kann ferner eine programmierbare Komponente 25 aufweisen. Es versteht sich, dass die programmierbare Komponente 25 in Kommunikation mit jeder beliebigen anderen Komponente des Schnittstellensystems stehen kann, beispielsweise mit dem Sensor 12, 12' und der Benutzerschnittstelle 16. In bestimmten Ausführungsformen ist die programmierbare Komponente 25 dazu ausgelegt, Verarbeitungsfunktionen der Verarbeitungseinheit 14 zu verwalten und zu steuern. Insbesondere ist die programmierbare Komponente 25 dazu ausgelegt, den Befehlssatz 20 zu modifizieren und die Analyse der Signale und Informationen zu steuern, die von der Verarbeitungseinheit 14 empfangen werden. Es versteht sich, dass die programmierbare Komponente 25 dazu ausgelegt sein kann, den Sensor 12 und die Benutzerschnittstelle 16 zu verwalten und zu steuern. Es versteht sich ferner, dass die programmierbare Komponente 25 dazu ausgelegt sein kann, Daten und Informationen auf der Speichervorrichtung 23 zu speichern und Daten und Informationen von der Speichervorrichtung 23 abzurufen.
  • Die Benutzerschnittstelle 16 kann jede beliebige Vorrichtung oder Komponente (z. B. Schaltflächen, Berührungsbildschirme, Regler und dergleichen) zum Steuern einer Funktion im Zusammenhang mit dem Fahrzeug 11 aufweisen. Es versteht sich, dass die Benutzerschnittstelle 16 als eine einzelne Vorrichtung wie z. B. eine Schaltfläche oder eine Steuervorrichtung definiert sein kann. Es versteht sich ferner, dass die Benutzerschnittstelle 16 an verschiedenen Positionen im Fahrzeug 11 angeordnet sein kann.
  • Wie dargestellt, weist die Benutzerschnittstelle 16 eine Anzeige 26 zum Präsentieren einer sichtbaren Ausgabe an den Benutzer auf. Es versteht sich, dass jede beliebige Anzahl von Anzeigen 26 benutzt werden kann. Es versteht sich ferner, dass jede Art von Anzeige benutzt werden kann, beispielsweise eine zweidimensionale Anzeige, eine dreidimensionale Anzeige, ein Berührungsbildschirm und dergleichen.
  • In der gezeigten Ausführungsform ist die Anzeige 26 eine berührungsempfindliche Anzeige (d. h. ein Berührungsbildschirm), auf dem mehrere vom Benutzer betätigbare Schaltflächen 28 präsentiert werden. Die Schaltflächen 28 sind einer ausführbaren Funktion eines Fahrzeugsystems 30 zugeordnet, beispielsweise eines Navigationssystems, eines Radios, einer Kommunikationsvorrichtung, die dazu ausgelegt ist, eine Verbindung zum Internet herzustellen, und eines Klimatisierungssystems. Allerdings kann den vom Benutzer betätigbaren Schaltflächen 28 jedes beliebige Fahrzeugsystem zugeordnet sein. Es versteht sich ferner, dass die Schaltflächen 28 in jeder beliebigen Anzahl vorgesehen und an verschiedenen Positionen im Fahrzeug angeordnet sein können, z. B. an einem Lenkrad oder einer Konsole.
  • Im Betrieb interagiert der Benutzer berührungsfrei mit dem Schnittstellensystem 10. Die Verarbeitungseinheit 14 empfängt fortlaufend die Eingangssignale (z. B. das Sensorsignal) und Informationen zur Position des Benutzers. Die Verarbeitungseinheit 14 analysiert das Eingangssignal und die Informationen anhand des Befehlssatzes 20, um den Zeigevektor 21 des Benutzers zu bestimmen und in Reaktion auf den Zeigevektor 21 eine personalisierte Konfiguration (oder Aktivierung) der Benutzerschnittstelle 16 zu erzeugen. Es versteht sich, dass der Benutzer mit einer der vom Benutzer betätigbaren Schaltflächen 28, die in die Anzeige 26 integriert sind oder an verschiedenen Positionen im Fahrzeug 11 (z. B. an einem Lenkrad, einem Armaturenbrett, einer Konsole oder einer Mittelkonsole) angeordnet sind, (berührungsfrei) interagieren kann.
  • Als nicht einschränkendes Beispiel wird wenigstens ein Bild einer Extremität des Benutzers erfasst. Das Bild wird über das Sensorsignal an die Verarbeitungseinheit 14 ausgegeben, um den Zeigevektor 21 zu berechnen. Als weiteres nicht einschränkendes Beispiel kann der projiziert kapazitive Sensor 12' benutzt werden, um das Vorhandensein der Extremität des Körpers des Benutzers innerhalb einer Messzone des Sensors 12' zu erkennen. Die vom Sensor 12 gesammelten Informationen werden über das Sensorsignal an die Verarbeitungseinheit 14 ausgegeben, um den Zeigevektor 21 zu berechnen.
  • Die Verarbeitungseinheit 14 analysiert das Eingangssignal (z. B. das Sensorsignal), um eine Position der Extremität (z. B. Finger, Hand, Arm) des Benutzers relativ zur Benutzerschnittstelle 16 zu bestimmen. Als nicht einschränkendes Beispiel werden die Bilddaten, die von dem Sensorsignal dargestellt werden, von der Verarbeitungseinheit 14 analysiert, um die Extremität innerhalb des erfassten Bildes zu definieren. In bestimmten Ausführungsformen werden die Pixel des erfassten Bildes analysiert (z. B. Schwellenwertanalyse), um eine Umfangskante der Extremität des Benutzers zu definieren.
  • Sobald die Extremität im Bild definiert wurde, kann eine relative Position eines Teils (z. B. Fingerspitze) der Extremität des Benutzers, der der Benutzerschnittstelle 16 am nächsten ist, bestimmt werden. Es versteht sich, dass die Position der Extremität relativ zur Benutzerschnittstelle 16 anhand einer bekannten Position der Benutzerschnittstelle 16 oder anhand weiterer Bildverarbeitungstechniken berechnet werden kann, die im Stand der Technik bekannt sind. Es versteht sich ferner, dass der projiziert kapazitive Sensor 12' die Extremität des Benutzers an einer gemessenen Störung des Kapazitätsmessbereichs des Sensors 12' lokalisieren kann, wie im Stand der Technik bekannt ist. Ein Fachmann wird verstehen, dass auch andere Sensoren und Positionsbestimmungstechniken benutzt werden können.
  • Die relative Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle 16 am nächsten ist, wird als einer der Vektorknotenpunkte 24 gespeichert. Es versteht sich, dass verschiedene Teile der Extremität des Benutzers durch Vektorknotenpunkte 24 bezeichnet und gespeichert werden können. Als nicht einschränkendes Beispiel wird eine Position einer Schulter des Benutzers unabhängig geschätzt und als ein weiterer Vektorknotenpunkt 24 gespeichert. Es versteht sich, dass eine Position jedes beliebigen Teils des Körpers des Benutzers geschätzt werden kann. Allerdings wurden zufriedenstellende Ergebnisse erzielt, wenn die Position eines relativ statischen Teils (z. B. Schulter, Hüfte usw.) des Körpers des Benutzers geschätzt wurde, während sich der Benutzer im Fahrzeug 11 befand.
  • Die Verarbeitungseinheit 14 kann dann den Zeigevektor 21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte 24 ein Ausgleichsgeradenalgorithmus anwendet. Es versteht sich, dass die Verarbeitungseinheit 14 anhand der Analyse des Eingangssignals eine Vielzahl von Vektorknotenpunkten 24 erzeugen kann. Es versteht sich ferner, dass verschiedene Ausgleichsgeradenalgorithmen benutzt werden können, um den Zeigevektor 21 „passend” über die Vektorknotenpunkte 24 zu legen.
  • Sobald der Zeigevektor 21 erzeugt wurde, simuliert die Verarbeitungseinheit 14 eine Verlängerung des Zeigevektors 21 in Richtung der Benutzerschnittstelle 16 (oder jeder beliebigen anderen Komponente, die mit der Verarbeitungseinheit 14 in Kommunikation steht, z. B. einer der vom Benutzer betätigbaren Schaltflächen 28). Der Teil der Benutzerschnittstelle 16 (oder anderen Komponente, z. B. vom Benutzer betätigbare Schaltflächen 28), der den Zeigevektor 21 schneidet, stellt eine Mitte des Zeigefelds 22 dar. Ein Toleranzbereich um den Mittelpunkt des Zeigefelds 22 kann durch im Voraus definierte Einstellungen der Verarbeitungseinheit 14 und des Befehlssatzes 20 definiert werden.
  • Anhand des Zeigevektors 21 des Benutzers wird die Benutzerschnittstelle 16 automatisch von der Verarbeitungseinheit 14 konfiguriert. Als nicht einschränkendes Beispiel konfiguriert die Verarbeitungseinheit 14 in Reaktion auf die erkannte Position der Hand des Benutzers und den berechneten Zeigevektor 21 automatisch die visuelle Ausgabe, die auf der Anzeige 26 präsentiert wird. Als weiteres nicht einschränkendes Beispiel konfiguriert die Verarbeitungseinheit 14 anhand des Zeigevektors 21 des Benutzers eine ausführbare Funktion, die der Benutzerschnittstelle 16 (z. B. der Schaltfläche 28) zugeordnet ist. Es versteht sich, dass die Verarbeitungseinheit 14 eine der vom Benutzer betätigbaren Schaltflächen 28 (oder eine andere Steuervorrichtung) konfigurieren (z. B. bezeichnen) kann, die innerhalb des Zeigefelds 22 des berechneten Zeigevektors 21 liegt. Es versteht sich ferner, dass der Benutzer nach dem Bezeichnen der vom Benutzer betätigbaren Schaltfläche 28 (oder Steuervorrichtung) die Schaltfläche 28 auslösen kann, um eine dieser zugeordnete Funktion auszuführen.
  • 3 und 4 zeigen Beispiele einer personalisierten Konfiguration (d. h. Bezeichnung). Wie in 3 gezeigt, zeigt der Benutzer (z. B. ein Fahrer des Fahrzeugs 11) auf eine mittlere der vom Benutzer betätigbaren Schaltflächen 28, und wenigstens einer der Sensoren 12, 12' erkennt die Extremität des Benutzers innerhalb einer Messzone. Ein Teil der Extremität des Benutzers, der der Benutzerschnittstelle 16 am nächsten ist, wird als einer der Vektorknotenpunkte 24 gespeichert. Außerdem wird eine Position einer Schulter des Benutzers geschätzt und als ein weiterer Vektorknotenpunkt 24 gespeichert. Die Verarbeitungseinheit 14 kann dann den Zeigevektor 21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte 24 ein Ausgleichsgeradenalgorithmus anwendet. Die Verarbeitungseinheit 14 simuliert eine Verlängerung des Zeigevektors 21 in Richtung der Benutzerschnittstelle 16. Der Teil der Benutzerschnittstelle 16, der den Zeigevektor 21 schneidet, stellt eine Mitte des Zeigefelds 22 dar.
  • Wie dargestellt, liegt die mittlere der Schaltflächen 28 im Zeigefeld 22 und wird damit zu der bezeichneten Schaltfläche 28'. Beispielsweise kann die bezeichnete Schaltfläche 28' stärker beleuchtet werden als die nicht bezeichneten Schaltflächen 28. Als weiteres Beispiel kann die bezeichnete Schaltfläche 28 relativ zur Größe der nicht bezeichneten Schaltflächen 28 auf der Anzeige 26 vergrößert werden. Als weiteres nicht einschränkendes Beispiel wird die bezeichnete Schaltfläche 28' von einer dedizierten Lichtquelle (nicht dargestellt) beleuchtet, um einen Bezeichnungszustand (d. h. eine Konfiguration) anzuzeigen. In bestimmten Ausführungsformen wird auf der Anzeige 26 im Zeigefeld 22 ein visuelles Symbol (nicht dargestellt) oder ein Zeiger präsentiert, um dem Benutzer einen visuellen Hinweise zur Position des Zeigefelds 22 zu liefern.
  • Wie in 4 gezeigt, zeigt der Benutzer (z. B. ein Beifahrer im Fahrzeug 11) auf eine rechte der vom Benutzer betätigbaren Schaltflächen 28, und wenigstens einer der Sensoren 12, 12' erkennt die Extremität des Benutzers innerhalb einer Messzone. Verschiedenen Teilen der erkannten Extremität des Benutzers werden mehrere Vektorknotenpunkte 24 zugewiesen. Die Verarbeitungseinheit 14 kann dann den Zeigevektor 21 berechnen, indem sie auf wenigstens zwei der Vektorknotenpunkte 24 ein Ausgleichsgeradenalgorithmus anwendet. Die Verarbeitungseinheit 14 simuliert eine Verlängerung des Zeigevektors 21 in Richtung der Benutzerschnittstelle 16. Der Teil der Benutzerschnittstelle 16, der den Zeigevektor 21 schneidet, stellt eine Mitte des Zeigefelds 22 dar.
  • Wie dargestellt, liegt die mittlere der Schaltflächen 28 im Zeigefeld 22 und wird zur bezeichneten Schaltfläche 28'. Beispielsweise kann die bezeichnete Schaltfläche 28 stärker beleuchtet werden als die nicht bezeichneten Schaltflächen 28. Als weiteres Beispiel kann die bezeichnete Schaltfläche 28' relativ zur Größe der nicht bezeichneten Schaltflächen 28 auf der Anzeige 26 vergrößert werden. Als weiteres nicht einschränkendes Beispiel wird die bezeichnete Schaltfläche 28' von einer dedizierten Lichtquelle (nicht dargestellt) beleuchtet, um einen Bezeichnungszustand (d. h. eine Konfiguration) anzuzeigen. In bestimmten Ausführungsformen wird auf der Anzeige 26 im Zeigefeld 22 ein visuelles Symbol (nicht dargestellt) oder ein Zeiger präsentiert, um dem Benutzer einen visuellen Hinweise zur Position des Zeigefelds 22 zu liefern.
  • In bestimmten Ausführungsformen wird nur die visuelle Ausgabe im Zeigefeld 22 des Benutzers vollständig beleuchtet, während die visuelle Ausgabe außerhalb des Zeigefelds 22 gedämpft beleuchtet oder unsichtbar gemacht wird. Wenn sich der Zeigevektor 21 des Benutzers verändert, wird die Benutzerschnittstelle 16 automatisch dazu konfiguriert, die visuelle Ausgabe der Anzeige 26 im Zeigefeld 22 des Benutzers hervorzuheben oder zu betonen. Es versteht sich, dass jede beliebige visuelle Ausgabe der Benutzerschnittstelle 16 in ähnlicher Weise wie die bezeichneten Schaltflächen 28' des oben stehenden Beispiels konfiguriert werden kann. Es versteht sich ferner, dass abhängig von einem beliebigen Grad der Veränderung zum Zeigevektor 21 des Benutzers verschiedene Konfigurationen der Benutzerschnittstelle 16 benutzt werden können. Es versteht sich ferner, dass jede beliebige Benutzerschnittstelle, Schaltfläche oder Steuervorrichtung (z. B. Klimaregelung, Radiosteuerung) im Zeigefeld 22 bezeichnet werden kann, damit der Benutzer eine dieser zugeordnete Funktion auf berührungsfreie Art und Weise ausführen kann.
  • Sobald wenigstens ein Teil der Benutzerschnittstelle 16 (oder anderen Komponente, z. B. vom Benutzer betätigbare Schaltflächen 28) bezeichnet (hervorgehoben, betont) wurde, kann der Benutzer den bezeichneten Teil (z. B. Schaltfläche 28') auf berührungsfreie Weise betätigen, indem er eine im Voraus definierte Geste mit der Extremität des Körpers des Benutzers ausführt. Beispielsweise kann der Benutzer mit einem Finger das Betätigen eines Abzugs simulieren, um die bezeichnete Schaltfläche 28' zu „betätigen”. Die im Voraus definierten Gesten können in Kombination mit anderen Steuerelementen wie z. B. einem Sprachbefehl oder einer physischen Betätigung (z. B. Drücken einer Taste am Lenkrad) benutzt werden, um einen Befehl auszulösen. In bestimmten Ausführungsformen wird ein Benutzer (z. B. Fahrzeugpassagier) aus bestimmten Komponenten und vom Benutzer betätigbaren Schaltflächen 28 wie z. B. Steuerelementen für Scheinwerfer und Warnlichter ausgesperrt.
  • Es versteht sich, dass der Benutzer die Konfiguration der Benutzerschnittstelle 16 und der diesen zugeordneten Funktionen manuell modifizieren kann. Es versteht sich ferner, dass das Schnittstellensystem 10 eine selektive Steuerung der automatischen Konfiguration der Benutzerschnittstelle bereitstellen kann. Beispielsweise kann die Benutzerschnittstelle 16 stets zur Standardkonfiguration zurückkehren, es sei denn, der Benutzer leitet einen Zeigemodus oder einen berührungsfreien Modus ein, wobei die Benutzerschnittstelle 16 automatisch auf die personalisierte Konfiguration konfiguriert wird, die dem Zeigevektor 21 eines Benutzers zugeordnet ist.
  • Das Schnittstellensystem 10 und Verfahren zum Konfigurieren der Benutzerschnittstelle 16 stellen eine Echtzeitpersonalisierung der Benutzerschnittstelle 16 anhand der Position des Benutzers und des berechneten Zeigevektors 21 bereit, wodurch die Aufmerksamkeit des Benutzers auf denjenigen Teil der Benutzerschnittstelle 16 im Zeigefeld 22 gelenkt wird, während Ablenkungen durch visuelle Ausgaben, denen die Aufmerksamkeit nicht gilt, minimiert werden.
  • Anhand der vorstehenden Beschreibung wird sich ein Durchschnittsfachmann ohne Weiteres von den wesentlichen Merkmalen dieser Erfindung überzeugen und verschiedene Änderungen und Modifikationen an der Erfindung vornehmen können, um sie an verschiedene Verwendungen und Bedingungen anzupassen, ohne vom Geist und Umfang der Erfindung abzuweichen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6624833 [0004]
    • US 7598942 [0005]

Claims (20)

  1. Adaptives Schnittstellensystem, umfassend: eine Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position der Extremität darstellt; und eine Verarbeitungseinheit, die mit dem Sensor in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, das Sensorsignal anhand eines Befehlssatzes analysiert, um einen Zeigevektor des Benutzers zu bestimmen, und die Benutzerschnittstelle anhand des Zeigevektor des Benutzers konfiguriert.
  2. Schnittstellensystem nach Anspruch 1, wobei die Benutzerschnittstelle eine vom Benutzer betätigbare Schaltfläche aufweist, die einer ausführbaren Funktion des Fahrzeugsystems zugeordnet ist.
  3. Schnittstellensystem nach Anspruch 1, wobei die Benutzerschnittstelle im Inneren eines Fahrzeugs angeordnet ist.
  4. Schnittstellensystem nach Anspruch 1, wobei der Sensor eine Verfolgungsvorrichtung zum Erfassen eines Bildes von wenigstens einer Extremität des Benutzers ist.
  5. Schnittstellensystem nach Anspruch 1, wobei der Sensor ein projiziert kapazitiver Sensor ist.
  6. Schnittstellensystem nach Anspruch 1, wobei der Sensor in die Benutzerschnittstelle integriert ist, um die Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle zu erkennen.
  7. Schnittstellensystem nach Anspruch 1, wobei der Befehlssatz ein Algorithmus zum Bestimmen einer Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle ist.
  8. Schnittstellensystem nach Anspruch 1, wobei der Befehlssatz ein Algorithmus zum Bestimmen des Zeigevektors anhand der Position der Extremität des Benutzers relativ zu der Benutzerschnittstelle und einer geschätzten Position eines anderen Teils des Körpers des Benutzers ist.
  9. Schnittstellensystem nach Anspruch 1, wobei die Extremität wenigstens eins von einem Finger, einer Hand und einem Arm des Benutzers ist.
  10. Schnittstellensystem nach Anspruch 1, ferner umfassend eine Quelle elektromagnetischer Strahlung, die wenigstens einen Teil des Benutzers zu beleuchtet, um das Erkennen der Position der Extremität des Benutzers zu ermöglichen.
  11. Adaptives Schnittstellensystem für ein Fahrzeug, umfassend: eine Benutzerschnittstelle, die im Inneren des Fahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zum Übermitteln einer Information an einen Benutzer aufweist, die einen Zustand eines Fahrzeugsystems darstellt; einen Sensor zum Erkennen einer Position einer Extremität eines Benutzers und zum Erzeugen eines Sensorsignals, das die Position eines Teils der Extremität des Benutzers darstellt, der der Benutzerschnittstelle am nächsten ist; eine Speichervorrichtung zum Speichern eines Vektorknotenpunkts, der eine geschätzte Position eines Körperteils des Benutzers darstellt; und eine Verarbeitungseinheit, die mit dem Sensor, der Speichervorrichtung und der Benutzerschnittstelle in Kommunikation steht, wobei die Verarbeitungseinheit das Sensorsignal empfängt, einen Zeigevektor der Extremität des Benutzers wenigstens anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt, und die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um eine bestimmte visuelle Ausgabe zu betonen, die auf der Anzeige dargestellt wird.
  12. Schnittstellensystem nach Anspruch 11, wobei der Sensor eine Verfolgungsvorrichtung zum Erfassen eines Bildes von wenigstens einer Extremität des Benutzers ist.
  13. Schnittstellensystem nach Anspruch 11, wobei der Sensor ein projiziert kapazitiver Sensor ist.
  14. Schnittstellensystem nach Anspruch 11, wobei der Sensor in die Benutzerschnittstelle integriert ist, um die Position des Teils der Extremität des Benutzers relativ zu der Benutzerschnittstelle zu erkennen.
  15. Schnittstellensystem nach Anspruch 11, wobei die Verarbeitungseinheit den Zeigevektor durch Berechnen einer Ausgleichsgeraden anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, bestimmt.
  16. Schnittstellensystem nach Anspruch 11, wobei die Extremität wenigstens eins von einem Finger, einer Hand und einem Arm des Benutzers ist.
  17. Schnittstellensystem nach Anspruch 11, wobei die Verarbeitungseinheit die Anzeige anhand des Zeigevektors der Extremität des Benutzers konfiguriert, um einen Teil der visuellen Ausgabe innerhalb eines Zeigefelds des Benutzers hervorzuheben.
  18. Verfahren zum Konfigurieren einer Anzeige, wobei das Verfahren folgende Schritte umfasst: Bereitstellen einer Benutzerschnittstelle zum Steuern eines Fahrzeugsystems; Bereitstellen eines Sensors zum Erkennen einer Position von wenigstens einem Teil einer Extremität eines Körpers eines Benutzers; Definieren eines Vektorknotenpunkts, der einer geschätzten Position eines im Voraus bestimmten Teils des Körpers des Benutzers zugeordnet ist; Bestimmen eines Zeigevektors, der von der Position der Extremität des Körpers des Benutzers und dem Knotenpunkt abgeleitet ist; und Konfigurieren der Benutzerschnittstelle anhand des Zeigevektors, um wenigstens einen Teil der Benutzerschnittstelle innerhalb eines Zeigefelds des Zeigevektors zu bezeichnen.
  19. Verfahren nach Anspruch 18, wobei der Vektorknotenpunkt einen Teil des Körpers des Benutzers darstellt, der im Wesentlichen statisch relativ zur Benutzerschnittstelle ist, während der Benutzer mit der Benutzerschnittstelle interagiert.
  20. Verfahren nach Anspruch 18, wobei der Schritt zum Bestimmen eines Zeigevektors ein Berechnen einer Ausgleichsgeraden anhand der Position des Teils der Extremität des Benutzers, der der Benutzerschnittstelle und dem Vektorknotenpunkt am nächsten ist, umfasst.
DE102011053449A 2010-09-21 2011-09-09 Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge Withdrawn DE102011053449A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/886,795 2010-09-21
US12/886,795 US8760432B2 (en) 2010-09-21 2010-09-21 Finger pointing, gesture based human-machine interface for vehicles

Publications (1)

Publication Number Publication Date
DE102011053449A1 true DE102011053449A1 (de) 2012-03-22

Family

ID=45769066

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011053449A Withdrawn DE102011053449A1 (de) 2010-09-21 2011-09-09 Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge

Country Status (3)

Country Link
US (1) US8760432B2 (de)
JP (1) JP5261554B2 (de)
DE (1) DE102011053449A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014202490A1 (de) 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
US9956878B2 (en) 2014-03-07 2018-05-01 Volkswagen Ag User interface and method for signaling a 3D-position of an input means in the detection of gestures

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102822773A (zh) * 2010-03-24 2012-12-12 惠普开发有限公司 用于显示设备的手势映射
US9285944B1 (en) 2011-04-22 2016-03-15 Angel A. Penilla Methods and systems for defining custom vehicle user interface configurations and cloud services for managing applications for the user interface and learned setting functions
US10217160B2 (en) * 2012-04-22 2019-02-26 Emerging Automotive, Llc Methods and systems for processing charge availability and route paths for obtaining charge for electric vehicles
US9189900B1 (en) 2011-04-22 2015-11-17 Angel A. Penilla Methods and systems for assigning e-keys to users to access and drive vehicles
US9123035B2 (en) 2011-04-22 2015-09-01 Angel A. Penilla Electric vehicle (EV) range extending charge systems, distributed networks of charge kiosks, and charge locating mobile apps
US9493130B2 (en) 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
US9371007B1 (en) 2011-04-22 2016-06-21 Angel A. Penilla Methods and systems for automatic electric vehicle identification and charging via wireless charging pads
US9809196B1 (en) 2011-04-22 2017-11-07 Emerging Automotive, Llc Methods and systems for vehicle security and remote access and safety control interfaces and notifications
US11203355B2 (en) 2011-04-22 2021-12-21 Emerging Automotive, Llc Vehicle mode for restricted operation and cloud data monitoring
US9818088B2 (en) 2011-04-22 2017-11-14 Emerging Automotive, Llc Vehicles and cloud systems for providing recommendations to vehicle users to handle alerts associated with the vehicle
US9963145B2 (en) 2012-04-22 2018-05-08 Emerging Automotive, Llc Connected vehicle communication with processing alerts related to traffic lights and cloud systems
US11370313B2 (en) 2011-04-25 2022-06-28 Emerging Automotive, Llc Methods and systems for electric vehicle (EV) charge units and systems for processing connections to charge units
US9104537B1 (en) 2011-04-22 2015-08-11 Angel A. Penilla Methods and systems for generating setting recommendation to user accounts for registered vehicles via cloud systems and remotely applying settings
US9648107B1 (en) 2011-04-22 2017-05-09 Angel A. Penilla Methods and cloud systems for using connected object state data for informing and alerting connected vehicle drivers of state changes
US10824330B2 (en) 2011-04-22 2020-11-03 Emerging Automotive, Llc Methods and systems for vehicle display data integration with mobile device data
US9139091B1 (en) 2011-04-22 2015-09-22 Angel A. Penilla Methods and systems for setting and/or assigning advisor accounts to entities for specific vehicle aspects and cloud management of advisor accounts
US10572123B2 (en) 2011-04-22 2020-02-25 Emerging Automotive, Llc Vehicle passenger controls via mobile devices
US9171268B1 (en) 2011-04-22 2015-10-27 Angel A. Penilla Methods and systems for setting and transferring user profiles to vehicles and temporary sharing of user profiles to shared-use vehicles
US9229905B1 (en) 2011-04-22 2016-01-05 Angel A. Penilla Methods and systems for defining vehicle user profiles and managing user profiles via cloud systems and applying learned settings to user profiles
US9581997B1 (en) 2011-04-22 2017-02-28 Angel A. Penilla Method and system for cloud-based communication for automatic driverless movement
US9230440B1 (en) 2011-04-22 2016-01-05 Angel A. Penilla Methods and systems for locating public parking and receiving security ratings for parking locations and generating notifications to vehicle user accounts regarding alerts and cloud access to security information
US9346365B1 (en) 2011-04-22 2016-05-24 Angel A. Penilla Methods and systems for electric vehicle (EV) charging, charging unit (CU) interfaces, auxiliary batteries, and remote access and user notifications
US11132650B2 (en) 2011-04-22 2021-09-28 Emerging Automotive, Llc Communication APIs for remote monitoring and control of vehicle systems
US9697503B1 (en) 2011-04-22 2017-07-04 Angel A. Penilla Methods and systems for providing recommendations to vehicle users to handle alerts associated with the vehicle and a bidding market place for handling alerts/service of the vehicle
US9180783B1 (en) 2011-04-22 2015-11-10 Penilla Angel A Methods and systems for electric vehicle (EV) charge location color-coded charge state indicators, cloud applications and user notifications
US9215274B2 (en) 2011-04-22 2015-12-15 Angel A. Penilla Methods and systems for generating recommendations to make settings at vehicles via cloud systems
US9536197B1 (en) 2011-04-22 2017-01-03 Angel A. Penilla Methods and systems for processing data streams from data producing objects of vehicle and home entities and generating recommendations and settings
US9348492B1 (en) 2011-04-22 2016-05-24 Angel A. Penilla Methods and systems for providing access to specific vehicle controls, functions, environment and applications to guests/passengers via personal mobile devices
US9365188B1 (en) 2011-04-22 2016-06-14 Angel A. Penilla Methods and systems for using cloud services to assign e-keys to access vehicles
US9288270B1 (en) 2011-04-22 2016-03-15 Angel A. Penilla Systems for learning user preferences and generating recommendations to make settings at connected vehicles and interfacing with cloud systems
US11294551B2 (en) 2011-04-22 2022-04-05 Emerging Automotive, Llc Vehicle passenger controls via mobile devices
US10286919B2 (en) 2011-04-22 2019-05-14 Emerging Automotive, Llc Valet mode for restricted operation of a vehicle and cloud access of a history of use made during valet mode use
US11270699B2 (en) 2011-04-22 2022-03-08 Emerging Automotive, Llc Methods and vehicles for capturing emotion of a human driver and customizing vehicle response
US10289288B2 (en) 2011-04-22 2019-05-14 Emerging Automotive, Llc Vehicle systems for providing access to vehicle controls, functions, environment and applications to guests/passengers via mobile devices
US8975903B2 (en) 2011-06-09 2015-03-10 Ford Global Technologies, Llc Proximity switch having learned sensitivity and method therefor
US8928336B2 (en) 2011-06-09 2015-01-06 Ford Global Technologies, Llc Proximity switch having sensitivity control and method therefor
US10004286B2 (en) 2011-08-08 2018-06-26 Ford Global Technologies, Llc Glove having conductive ink and method of interacting with proximity sensor
US20130063336A1 (en) * 2011-09-08 2013-03-14 Honda Motor Co., Ltd. Vehicle user interface system
US9143126B2 (en) 2011-09-22 2015-09-22 Ford Global Technologies, Llc Proximity switch having lockout control for controlling movable panel
US8994228B2 (en) 2011-11-03 2015-03-31 Ford Global Technologies, Llc Proximity switch having wrong touch feedback
US10112556B2 (en) 2011-11-03 2018-10-30 Ford Global Technologies, Llc Proximity switch having wrong touch adaptive learning and method
US8878438B2 (en) 2011-11-04 2014-11-04 Ford Global Technologies, Llc Lamp and proximity switch assembly and method
WO2013074866A1 (en) * 2011-11-16 2013-05-23 Flextronics Ap, Llc Feature recognition for configuring a vehicle console and associated devices
JP5921173B2 (ja) * 2011-12-12 2016-05-24 富士通テン株式会社 車載装置、及び回転方法
US20140309853A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Vehicle diagnostics and roadside assistance
US9831870B2 (en) 2012-04-11 2017-11-28 Ford Global Technologies, Llc Proximity switch assembly and method of tuning same
US9559688B2 (en) 2012-04-11 2017-01-31 Ford Global Technologies, Llc Proximity switch assembly having pliable surface and depression
US9197206B2 (en) 2012-04-11 2015-11-24 Ford Global Technologies, Llc Proximity switch having differential contact surface
US9531379B2 (en) 2012-04-11 2016-12-27 Ford Global Technologies, Llc Proximity switch assembly having groove between adjacent proximity sensors
US9944237B2 (en) 2012-04-11 2018-04-17 Ford Global Technologies, Llc Proximity switch assembly with signal drift rejection and method
US9287864B2 (en) 2012-04-11 2016-03-15 Ford Global Technologies, Llc Proximity switch assembly and calibration method therefor
US9219472B2 (en) 2012-04-11 2015-12-22 Ford Global Technologies, Llc Proximity switch assembly and activation method using rate monitoring
US9184745B2 (en) 2012-04-11 2015-11-10 Ford Global Technologies, Llc Proximity switch assembly and method of sensing user input based on signal rate of change
US9520875B2 (en) 2012-04-11 2016-12-13 Ford Global Technologies, Llc Pliable proximity switch assembly and activation method
US8933708B2 (en) 2012-04-11 2015-01-13 Ford Global Technologies, Llc Proximity switch assembly and activation method with exploration mode
US9568527B2 (en) 2012-04-11 2017-02-14 Ford Global Technologies, Llc Proximity switch assembly and activation method having virtual button mode
US9660644B2 (en) 2012-04-11 2017-05-23 Ford Global Technologies, Llc Proximity switch assembly and activation method
US9065447B2 (en) 2012-04-11 2015-06-23 Ford Global Technologies, Llc Proximity switch assembly and method having adaptive time delay
US9136840B2 (en) 2012-05-17 2015-09-15 Ford Global Technologies, Llc Proximity switch assembly having dynamic tuned threshold
US8981602B2 (en) 2012-05-29 2015-03-17 Ford Global Technologies, Llc Proximity switch assembly having non-switch contact and method
US9337832B2 (en) 2012-06-06 2016-05-10 Ford Global Technologies, Llc Proximity switch and method of adjusting sensitivity therefor
US9641172B2 (en) 2012-06-27 2017-05-02 Ford Global Technologies, Llc Proximity switch assembly having varying size electrode fingers
DE102013209721A1 (de) 2012-08-20 2014-02-20 Johnson Controls Gmbh Verfahren zur Kalibrierung einer TOF-Kamera
US8922340B2 (en) 2012-09-11 2014-12-30 Ford Global Technologies, Llc Proximity switch based door latch release
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
FR2995836B1 (fr) * 2012-09-27 2015-05-22 Valeo Systemes Thermiques Module de commande
US8796575B2 (en) 2012-10-31 2014-08-05 Ford Global Technologies, Llc Proximity switch assembly having ground layer
CN104049872B (zh) * 2013-03-13 2018-01-05 本田技研工业株式会社 利用指向的信息查询
US9311204B2 (en) 2013-03-13 2016-04-12 Ford Global Technologies, Llc Proximity interface development system having replicator and method
US8886399B2 (en) 2013-03-15 2014-11-11 Honda Motor Co., Ltd. System and method for controlling a vehicle user interface based on gesture angle
US8818716B1 (en) 2013-03-15 2014-08-26 Honda Motor Co., Ltd. System and method for gesture-based point of interest search
JP2015019279A (ja) * 2013-07-11 2015-01-29 京セラディスプレイ株式会社 電子機器
US9817521B2 (en) 2013-11-02 2017-11-14 At&T Intellectual Property I, L.P. Gesture detection
US10025431B2 (en) 2013-11-13 2018-07-17 At&T Intellectual Property I, L.P. Gesture detection
DE102014204800A1 (de) * 2014-03-14 2015-09-17 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer graphischen Nutzerschnittstelle in einem Fahrzeug
US9330306B2 (en) 2014-06-11 2016-05-03 Panasonic Intellectual Property Management Co., Ltd. 3D gesture stabilization for robust input control in mobile environments
US10936050B2 (en) 2014-06-16 2021-03-02 Honda Motor Co., Ltd. Systems and methods for user indication recognition
US9501810B2 (en) * 2014-09-12 2016-11-22 General Electric Company Creating a virtual environment for touchless interaction
KR101556521B1 (ko) * 2014-10-06 2015-10-13 현대자동차주식회사 휴먼 머신 인터페이스 장치, 그를 가지는 차량 및 그 제어 방법
US10038443B2 (en) 2014-10-20 2018-07-31 Ford Global Technologies, Llc Directional proximity switch assembly
KR101866740B1 (ko) * 2014-11-13 2018-06-15 현대자동차주식회사 터치 입력장치 및 이를 포함하는 차량
US9654103B2 (en) 2015-03-18 2017-05-16 Ford Global Technologies, Llc Proximity switch assembly having haptic feedback and method
TWI552892B (zh) * 2015-04-14 2016-10-11 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
US9548733B2 (en) 2015-05-20 2017-01-17 Ford Global Technologies, Llc Proximity sensor assembly having interleaved electrode configuration
WO2017013805A1 (ja) * 2015-07-23 2017-01-26 富士通株式会社 入力装置、入力支援方法および入力支援プログラム
US9983407B2 (en) 2015-09-11 2018-05-29 Honda Motor Co., Ltd. Managing points of interest
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
US10606378B2 (en) * 2015-11-20 2020-03-31 Harman International Industries, Incorporated Dynamic reconfigurable display knobs
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10515390B2 (en) 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
US11321951B1 (en) * 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
CN111417957B (zh) * 2018-01-03 2023-10-27 索尼半导体解决方案公司 使用移动装置的姿势识别
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
US11106315B2 (en) 2018-11-29 2021-08-31 International Business Machines Corporation Touch screen device facilitating estimation of entity orientation and identity
CN111169409B (zh) * 2020-02-21 2022-03-18 广州小鹏汽车科技有限公司 一种控制方法和车辆
WO2021237305A1 (en) * 2020-05-29 2021-12-02 Marthinus Van Der Merwe A contactless touchscreen interface
WO2022043148A1 (en) * 2020-08-27 2022-03-03 Interdigital Ce Patent Holdings, Sas Method and apparatus for controlling at least a part of a device
CN114274158B (zh) * 2021-12-31 2024-02-02 北京博清科技有限公司 爬行焊接机器人的控制方法、控制器以及焊接系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324181A (ja) * 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US20050024338A1 (en) 2001-03-29 2005-02-03 International Business Machines Corporation Finger-identifying keyboard
US7133021B2 (en) 2001-06-09 2006-11-07 Coghan Iv Francis F Finger-fitting pointing device
US20030132913A1 (en) 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
US20040080493A1 (en) 2002-10-25 2004-04-29 Shahar Kenin Index-finger computer mouse
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
EP2093650B1 (de) 2002-11-20 2013-05-15 Koninklijke Philips Electronics N.V. Benutzerschnittstellensystem auf der Basis eines Zeigegeräts
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
US20070130547A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US8614669B2 (en) * 2006-03-13 2013-12-24 Navisense Touchless tablet method and system thereof
WO2008010024A1 (en) 2006-07-16 2008-01-24 Cherradi I Free fingers typing technology
US8354997B2 (en) 2006-10-31 2013-01-15 Navisense Touchless user interface for a mobile device
CN101369180A (zh) 2007-08-15 2009-02-18 联想(北京)有限公司 手指指点装置
US8269842B2 (en) 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
CN102112945B (zh) 2008-06-18 2016-08-10 奥布隆工业有限公司 用于交通工具接口的基于姿态的控制系统
US20090327974A1 (en) 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7598942B2 (en) 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014202490A1 (de) 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
WO2015121056A1 (de) 2014-02-12 2015-08-20 Volkswagen Aktiengesellschaft Vorrichtung und verfahren zur signalisierung einer erfolgreichen gesteneingabe
US9858702B2 (en) 2014-02-12 2018-01-02 Volkswagen Aktiengesellschaft Device and method for signalling a successful gesture input
US9956878B2 (en) 2014-03-07 2018-05-01 Volkswagen Ag User interface and method for signaling a 3D-position of an input means in the detection of gestures

Also Published As

Publication number Publication date
US20120068956A1 (en) 2012-03-22
US8760432B2 (en) 2014-06-24
JP2012069114A (ja) 2012-04-05
JP5261554B2 (ja) 2013-08-14

Similar Documents

Publication Publication Date Title
DE102011053449A1 (de) Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP3013621B1 (de) Kraftfahrzeug-bedienschnittstelle mit gestenerkennung
DE102011050942A1 (de) Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking
EP2179346B1 (de) Anzeige- und bedienvorrichtung für ein kraftfahrzeug mit einer multi-view-anzeigevorrichtung
DE112014000496T5 (de) Benutzerschnittstellenvorrichtung und Eingabeerfassungsverfahren
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
EP2943367A1 (de) Verfahren zum synchronisieren von anzeigeeinrichtungen eines kraftfahrzeugs
EP2915022B1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE202015105611U1 (de) Vorrichtung zur Gestensteuerung in einem Fahrzeug
DE102013100328A1 (de) Adaptives Schnittstellensystem
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102017113763B4 (de) Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
DE102018220693B4 (de) Steuerungssystem und Verfahren zum Steuern einer Funktion eines Fahrzeugs, sowie Fahrzeug mit einem solchen
DE102014224599A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
WO2014067798A1 (de) Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays
EP3426516B1 (de) Bedienvorrichtung und verfahren zum erfassen einer benutzerauswahl zumindest einer bedienfunktion der bedienvorrichtung
DE102022102504B9 (de) Verfahren zum Betreiben einer Schnittstellenvorrichtung in einem Fahrzeug, sowie Schnittstellenvorrichtung und Fahrzeug
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102012218155A1 (de) Erleichtern der Eingabe auf einer berührungsempfindlichen Anzeige in einem Fahrzeug
DE102018211908A1 (de) Verfahren für das Erfassen eines digitalen Bildes einer Umgebung eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer Bilderfassungseinrichtung
DE102020106021A1 (de) Verfahren und system zum betreiben eines auswahlmenüs einer grafischen benutzeroberfläche basierend auf dem erfassen einer rotierenden freiraumgeste
DE102014217969A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102016201981A1 (de) Verfahren zum Auswählen, Aktivieren oder Deaktivieren einer Funktion in einem Kraftfahrzeug mithilfe einer Bedieneinrichtung und ein Bediensystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee