DE202008001338U1 - Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung - Google Patents

Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung Download PDF

Info

Publication number
DE202008001338U1
DE202008001338U1 DE202008001338U DE202008001338U DE202008001338U1 DE 202008001338 U1 DE202008001338 U1 DE 202008001338U1 DE 202008001338 U DE202008001338 U DE 202008001338U DE 202008001338 U DE202008001338 U DE 202008001338U DE 202008001338 U1 DE202008001338 U1 DE 202008001338U1
Authority
DE
Germany
Prior art keywords
gesture
block
finger
touch
electronic system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008001338U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202008001338U1 publication Critical patent/DE202008001338U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Elektronisches System umfassend:
eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt;
ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.

Description

  • Die vorliegende Erfindung bezieht sich allgemein auf ein elektronisches System mit Mehrpunkt-Abtastvorrichtung.
  • Es gibt heute mehrere Arten von Eingabevorrichtungen zum Durchführen von Operationen in einem Computersystem. Die Operationen entsprechen im Allgemeinen dem Bewegen eines Cursors und dem Anwählen auf einem Anzeigebildschirm. Die Operationen können auch blättern, scrollen, schwenken, zoomen usw. umfassen. Zum Beispiel können die Eingabevorrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln, Berührungsfelder, Joysticks, Berührungsbildschirme und ähnliches umfassen. Jede dieser Vorrichtungen hat Vorteile und Nachteile, die berücksichtigt werden müssen, wenn das Computersystem entworfen wird.
  • Mit Berührungsfeldern entspricht die Bewegung des Eingabezeigers den relativen Bewegungen des Fingers (oder Stifts) des Benutzers, wenn der Finger entlang seiner Oberfläche des Berührungsfeldes bewegt wird. Berührungsbildschirme andererseits sind eine Art von Anzeigebildschirm, der ein berührungsempfindliches durchsichtiges Feld hat, das den Bildschirm bedeckt. Wenn er einen Berührungsbildschirm verwendet, macht ein Benutzer eine Auswahl auf dem Anzeigebildschirm durch direktes Zeigen auf GUI Objekte auf dem Bildschirm (normalerweise mit einem Stift oder Finger). Im Allgemeinen erkennt die Berührungsvorrichtung die Berührung und die Position der Berührung, und das Computersystem interpretiert die Berührung und führt danach eine Aktion auf der Grundlage des Berührungsereignisses durch.
  • Um zusätzliche Funktionalität zur Verfügung zu stellen, wurden Gesten mit einigen dieser Eingabevorrichtungen implementiert. Zum Beispiel können in Berührungsfeldern Anwahlen gemacht werden, wenn ein oder mehrfaches Tippen auf der Oberfläche des Berührungsfeldes detektiert wird. In manchen Fällen kann auf jedem Abschnitt des Berührungsfeldes getippt werden, und in anderen Fällen kann auf einen bestimmten Abschnitt des Berührungsfeldes getippt werden. Über Anwahlen hinaus kann Scrollen durch Verwendung einer Fingerbewegung am Rand des Berührungsfeldes veranlasst werden.
  • Leider ist Gestikulieren stark durch die Tatsache beschränkt, dass die meisten Berührungstechnologien nur in der Lage sind, einen einzigen Punkt zu berichten, selbst wenn mehrere Objekte auf der Abtastoberfläche platziert sind. Das heißt sie entbehren der Fähigkeit, mehrere Kontaktpunkte gleichzeitig nachzuverfolgen. In Widerstands- und Kapazitätstechnologien wird ein Durchschnitt aller gleichzeitig auftretenden Berührungspunkte bestimmt und ein einziger Punkt, der irgendwo zwischen die Berührungspunkte fällt, wird berichtet. In Oberflächenwellen- und Infrarottechnologien ist es wegen Maskierung unmöglich, die exakte Position von mehreren Berührungspunkten zu unterscheiden, die auf dieselbe horizontale oder vertikale Linie fallen. In beiden Fällen werden fehlerhafte Ergebnisse erzeugt.
  • Auf der Grundlage des oben gesagten gibt es einen Bedarf für Mehrpunkt-Abtastvorrichtungen und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen.
  • Die Erfindung bezieht sich in einer Ausführungsform auf ein elektronisches System. Das elektronische System umfasst eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunkt-Abtastgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt. Das elektronische System umfasst auch ein Gestenmodul, das konfiguriert ist, um einen Satz an Gesten für eine gegebene Eingabeanordnung zu bestimmen, die durch das Mehrpunkt-Abtastgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, um die gegebene Eingabeanordnung für ein oder mehrere Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen auszulösen, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung ausgeführt wird. Die Eingabeanordnung kann z. B. eine Anordnung von Fingern und/oder anderen Teilen der Hand sein.
  • Ein Gestensteuerungsverfahren umfasst Detektieren mehrerer Punkte innerhalb eines Abtastgebiets zur gleichen Zeit. Das Verfahren umfasst auch Bestimmen eines Akkords, wenn ein oder mehrere Punkte innerhalb des Abtastgebiets detektiert werden. Der Akkord ist eine spezielle Anordnung von Punkten innerhalb des Abtastgebiets. Das Verfahren umfasst weiterhin Bestimmen eines Gestensatzes, der Befehle mit einem oder mehreren Gestenereignissen verbindet. Das Verfahren umfasst weiterhin Überwachen von Punkten für Gestenereignisse. Weiterhin umfasst das Verfahren Ausführen eines Befehls, der mit dem Gestenereignis in Verbindung steht, wenn ein Gestenereignis erkannt wird.
  • Eine Steueroperation umfasst Detektieren einer Berührung oder Beinahe-Berührung. Die Operation umfasst auch Bestimmen eines Gestensatzes für Berührung. Der Gestensatz umfasst ein oder mehrere Gestenereignisse zum Auslösen oder Einleiten eines Befehls. Die Operation umfasst weiterhin Überwachen der Berührung für ein Gestenereignis. Die Operation umfasst zusätzlich Einleiten eines Befehls, wenn ein Gestenereignis, das mit der Geste assoziiert ist, ausgeführt wird.
  • Eine Gestenoperation umfasst Überwachen einer Berührungsbewegung. Die Operation umfasst auch Unterscheiden der Berührungsbewegung zwischen einem ersten und zweiten Zustand. Die Operation umfasst weiterhin Durchführen einer ersten Aktion, wenn die Berührungsbewegung mit dem ersten Zustand assoziiert wird. Die Operation umfasst zusätzlich Durchführen einer zweiten Aktion, wenn die Berührung mit dem zweiten Zustand assoziiert wird.
  • Eine weitere Steueroperation umfasst zur Verfügung stellen einer ersten Eingabevorrichtung und einer zweiten Eingabevorrichtung, die von der ersten Eingabevor richtung verschieden ist. Die erste Eingabevorrichtung umfasst eine Objektabtastungsvorrichtung wie etwa eine Berührungsabtastungsvorrichtung zum Liefern von Eingabeereignissen. Die Operation umfasst auch Überwachen der ersten Eingabevorrichtung nach Eingabeereignissen. Die Operation umfasst weiterhin simultanes Überwachen der zweiten Eingabevorrichtung nach Eingabeereignissen. Die Operation umfasst drüber hinaus Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der ersten Eingabevorrichtung assoziiert sind. Weiterhin umfasst das Verfahren gleichzeitiges Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der zweiten Eingabevorrichtung assoziiert sind.
  • Eine Steueroperation liefert eine Liste von Eingabefunktionen. Die Eingabefunktionen haben Befehle und Gestenereignisse, die mit den Befehlen verbunden sind. Die Befehle stehen mit der Eingabefunktion in Verbindung. Die Operation umfasst auch Zuordnen von Eingabefunktionen zu Akkorden. Die Operation umfasst darüber hinaus das Verbinden einer Eingabefunktion mit einem Akkord, wenn der Akkord erkannt wird.
  • Ein Steuerfeld umfasst Anzeigen eines Menüs von Eingabefunktionen. Das Steuerfeld umfasst auch Anzeigen eines Gestensatzes, der Befehle zeigt, die mit einer ausgewählten Eingabefunktion assoziiert sind, und Gestenereignisse, die den Befehlen zugeordnet sind. Die Steueroperation umfasst weiterhin Anzeigen einer Liste von Akkorden. Um eine Gestenzuordnung einzurichten, wählt ein Benutzer eine gewünschte Eingabefunktion aus einer Liste von Eingabefunktionen und wählt einen gewünschten Akkord aus der Liste von Akkorden.
  • Ein Gestenentwurfsverfahren umfasst zur Verfügung stellen einer Liste von Akkorden und Anordnen der Akkorde vom Einfachsten bis zum Schwierigsten. Das Entwurfsverfahren umfasst auch Anordnen der Frequenz von Operationen von am häufigsten bis am wenigsten häufig. Das Entwurfsverfahren umfasst weiterhin Zuordnen der einfachsten Akkorde mit den häufigsten Operationen und Zuordnen der schwierigsten Akkorde mit den seltensten Operationen. Das Entwurfsverfah ren kann zusätzlich Feineinstellung von Akkord-/Operationsgruppierung umfassen.
  • Eine Gestenoperation umfasst das Detektieren eines ersten Fingers. Die Gestenoperation umfasst auch Bestimmen des Zustands des Fingers. Der Zustand des Fingers kann z. B. bewegend oder fest stehend sein. Die Gestenoperation umfasst weiterhin Detektieren eines oder mehrerer zusätzlicher Finger. Zum Beispiel kann ein zweiter Finger detektiert werden. Die Gestenoperation umfasst darüber hinaus Bestimmen des Zustands der zusätzlichen Finger. Der Zustand der zusätzlichen Finger kann z. B. sein, dass sie anwesend sind, oder nicht. Weiterhin umfasst das Verfahren Implementieren verschiedener Eingabemodi, die auf der zeitlichen Zuordnung von Zuständen des ersten und der zusätzlichen Finger relativ zueinander basieren. Die verschiedenen Modi können z. B. Zeigemodi, Ziehmodi und ähnliche sein.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Erfindung wird leicht durch die folgende detaillierte Beschreibung in Verbindung mit den angehängten Zeichnungen verstanden werden, wobei gleiche Beziehungszeichen gleiche strukturelle Elemente bezeichnen, und in denen:
  • 1 eine illustrative Gestensteueroperation zeigt;
  • 2 eine illustrative Steueroperation zeigt;
  • 3 eine illustrative Steueroperation zeigt;
  • 4 eine illustrative Steueroperation zeigt;
  • 5 eine illustrative Steueroperation zeigt;
  • 6 eine illustrative Steueroperation zeigt;
  • 7 eine illustrative Gestenoperation zeigt;
  • 8 eine illustrative Gestenoperation zeigt;
  • 9 eine illustrative Gestenoperation zeigt;
  • 10 eine illustrative Gestenoperation zeigt;
  • 11 eine illustrative Gestenoperation zeigt;
  • 12 eine illustrative Gestenoperation zeigt;
  • 13 eine illustrative Gestenoperation zeigt;
  • 14 eine illustrative Gestenoperation zeigt;
  • 15 eine illustrative Gestenoperation zeigt;
  • 16 eine illustrative Gestenoperation zeigt;
  • 17 eine illustrative Gestenoperation zeigt;
  • 18 eine illustrative Gestenoperation zeigt;
  • 19 eine illustrative Gestenoperation zeigt;
  • 20 eine illustrative Steueroperation zeigt;
  • 21 eine illustrative Steueroperation zeigt;
  • 22 eine illustrative Steueroperation zeigt;
  • 23 eine illustrative Steueroperation zeigt;
  • 24 eine illustrative Steueroperation zeigt;
  • 25 eine illustrative Steueroperation zeigt;
  • 26 eine illustrative Steueroperation zeigt;
  • 27 eine illustrative Steueroperation zeigt;
  • 28 eine illustrative Steueroperation zeigt;
  • 29A bis G Diagramme eines illustrativen Steuerfeldes zeigen;
  • 30 eine illustrative Steueroperation zeigt;
  • 31 ein illustratives Verfahren zum Gestenzuordnen zeigt;
  • 32 ein illustratives Gestenzuordnungsverfahren zeigt;
  • 33 ein illustratives Verfahren zur Gestenrückführung zeigt;
  • 34 ein illustratives Diagramm eines Gestenbetrachtungsfensters zeigt;
  • 35 ein illustratives Tastaturverfahren, das über einen Berührungsbildschirm implementiert wird, zeigt;
  • 36 ein illustratives Gestenentwurfsverfahren zeigt;
  • 37 eine illustrative Matrix zum Bewerten von Akkorden zeigt;
  • 38 eine illustrative Matrix zum Auflisten der Operationshäufigkeit für ein paar Operationen zeigt;
  • 39 eine illustrative Steueroperation zeigt;
  • 40 eine illustrative Steueroperation zeigt;
  • 41 eine illustrative Steueroperation zeigt;
  • 42 ein illustratives Diagramm einer Gestentafel zeigt;
  • 43 ein Diagramm einer Gestentafel ist;
  • 44 ein Diagramm einer Gestentafel ist;
  • 45 ein Diagramm eines Gestensatzes ist;
  • 46 ein Diagramm eines Gestensatzes ist;
  • 47 ein Diagramm eines Gestensatzes ist;
  • 48 ein Diagramm eines Gestensatzes ist;
  • 49 eine illustrative Gestenoperation zeigt;
  • 50 eine illustrative Gestenoperation zeigt;
  • 51 eine illustrative Gestenoperation zeigt;
  • 52 eine illustrative Gestenoperation zeigt;
  • 53 eine illustrative Gestenoperation zeigt;
  • 54 ein illustratives Blockdiagramm eines elektronischen Systems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Gesten und Verfahren des Implementierens von Gesten mit Abtastvorrichtungen werden offenbart. Genauer werden Gesten und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen offenbart. Mehrpunkt-Abtastvorrichtungen haben eine Reihe von Vorteilen gegenüber herkömmlichen Einzelpunktvorrichtungen, dadurch, dass sie mehr als ein Objekt (Finger) gleichzeitig oder fast gleichzeitig unterscheiden können. In den meisten Fällen überwachen Mehrpunkt-Abtastvorrichtungen und Systeme, die solche Vorrichtungen verwenden, eine Oberfläche bezüglich eines Berührungs- oder Fast-Berührungsereignisses. Wenn solch ein Ereignis auftritt, kann sie das/die unterschiedliche(n) Kontaktgebiet(e) bestimmen und die Art der Ereignisse über ihre geometrischen Merkmale und ihre geometrische Anordnung identifizieren. Sobald sie identifiziert sind, werden Berührungs- oder Fast-Berührungsereignisse überwacht, um zu bestimmen, ob sie mehreren Gestenereignissen entsprechen.
  • Ein Gestenereignis kann als eine stilisierte Interaktion der Abtastoberfläche definiert werden, die einer oder mehreren speziellen Berechnungsoperationen zuge ordnet wird. Gestenereignisse können durch verschiedene Hand-, insbesondere Finger-Bewegungen, Tippen, Drücke, Verweilzeiten und/oder ähnliches gemacht werden. Da die Oberfläche auf Mehrpunkttechnologie basiert, kann komplexes Gestikulieren mit jeder beliebigen Anzahl an Fingern oder anderen Kontaktabschnitten der Hand durchgeführt werden. In der Tat kann daher eine große Gestensprache entwickelt werden, die analog zur Zeichensprache ist. Gestensprache (oder Abbildung) kann z. B. einen Befehlssatz umfassen, der eine Kontaktanordnung (z. B. Akkorde) erkennt, das Auftreten von Gestenereignissen (z. B. Bewegungen) erkennt und einen oder mehrere Softwareagenten über die Gestenereignisse informiert und/oder darüber, welche Aktion(en) als Antwort auf die Gestenereignisse durchzuführen ist/sind. Beispiele für Mehrpunktgestikulieren kann z. B. in den U.S. Patentanmeldungen Nr. 10/903,964, 11/038,590 und 11/015,434 gefunden werden, die alle hierin per Verweis mit eingebunden werden.
  • Ein weites Feld von verschiedenen Gesten kann mit Mehrpunkt-Abtastvorrichtungen verwendet werden. Zum Beispiel kann eine Geste eine Einzelpunkt- oder eine Mehrpunktgeste sein; eine statische oder dynamische Geste, eine kontinuierliche oder segmentierte Geste; und/oder ähnliches. Einzelpunktgesten sind diejenigen Gesten, die mit einem einzigen Kontaktpunkt ausgeführt werden, z. B. wird die Geste mit einer einzigen Berührung als beispielsweise von einem einzigen Finger, einer Handfläche oder einem Stift durchgeführt. Mehrpunktgesten sind diejenigen Gesten, die mit mehreren Punkten durchgeführt werden können, z. B. wird die Geste mit mehreren Berührungen, wie beispielsweise von mehreren Fingern, Fingern und Handflächen, einem Finger und einem Stift, mehreren Stiften und/oder irgendeiner Kombination davon durchgeführt werden. Statische Gesten können diejenigen Gesten sein, die im Wesentlichen keine Gestenereignisse (z. B. Akkorde) umfassen, und dynamische Gesten können diejenigen Gesten sein, die signifikante Gestenereignisse (z. B. Bewegungen, Tippen usw.) umfassen.
  • Kontinuierliche Gesten können diejenigen Gesten sein, die in einem einzigen Zug durchgeführt werden, und segmentierte Gesten können diejenigen Gesten sein, die in einer Abfolge von unterschiedlichen Schritten oder Zügen durchgeführt werden. Obwohl hier mehrere Beispiele gegeben werden, sollte erkannt werden, dass dies beispielhaft und nicht zur Beschränkung ist.
  • Mehrpunkt-Abtastvorrichtungen können auf verschiedene Weisen implementiert werden, einschließlich – aber nicht beschränkt auf – Standardgrößen-Berührfelder, große erweiterte Handflächenfelder, Berührungsbildschirme, berührungsempfindliche Gehäuse, usw. Weiterhin können Mehrpunkt-Abtastvorrichtungen auf vielen Formfaktoren angebracht werden, einschließlich – aber nicht beschränkt auf – Tablettcomputer, Laptopcomputer, Desktopcomputer sowie handgehaltene Computervorrichtungen wie etwa Mediumabspieler, PDA's, Mobiltelefone und ähnliches. Die Mehrpunkt-Abtastvorrichtungen können auch auf dedizierten Eingabegeräten wie etwa Berührungsbildschirmmonitoren, Tastaturen, Navigationsfeldern, Tabletts, Mäusen und ähnlichen gefunden werden. Beispiele für Mehrpunkt-Abtastvorrichtungen können in den U.S. Patentanmeldungen Nr. 10/840,862, 10/927,575 gefunden werden, die hier alle per Verweis mit eingebunden werden.
  • Mehrere Ausführungsformen werden jetzt unten unter Bezugnahme auf die 1 bis 54 diskutiert werden. Die Fachleute werden jedoch leicht erkennen, dass die hierin gegebene detaillierte Beschreibung in Bezug auf diese Figuren nur zu Erklärungszwecken dient, da sich die Erfindung über diese beschränkten Ausführungsformen hinaus erstreckt.
  • 1 zeigt die illustrative Gestensteueroperation 10. Die Operation 10 kann bei Block 12 beginnen, wo eine Mehrpunkt-Abtastvorrichtung zur Verfügung gestellt wird. Die Mehrpunkt-Abtastvorrichtung ist in der Lage, mehrere Kontakt- oder Fast-Kontaktpunkte gleichzeitig zu detektieren. Die Mehrpunkt-Abtastvorrichtung kann z. B. eine Mehrpunkt-Abtastoberfläche umfassen, die in der Lage ist, simultan mehrere Objekte auf der Berührungsoberfläche abzutasten. Alternativ oder zusätzlich kann die Mehrpunkt-Abtastvorrichtung Fähigkeiten des Abtastens von Objekten umfassen, die in großer Nähe zu einer Oberfläche sind, aber die Oberfläche nicht berühren (z. B. Nähe Abtastung). Die Mehrpunkt-Abtastvorrichtung kann als ein Berührungsbildschirm, Berührungsfeld, eine berührungsempfindliche Handflächenablage, ein berührungsempfindliches Gehäuse und/ähnliches implementiert werden.
  • Dem Block 12 folgend kann die Operation nach Block 14 übergehen, wo eine Bestimmung gemacht wird, ob eine Berührung oder Fast-Berührung durch die Mehrpunkt-Abtastvorrichtung detektiert wird. Wenn keine Berührung detektiert wird, kann die Operation warten. Wenn eine Berührung detektiert wird, kann die Operation zu Block 16 weitergehen, wo ein Akkord bestimmt wird, der mit der Berührung assoziiert ist. Ein Akkord kann z. B. eine bestimmte Anordnung von Kontakten oder Fast-Kontakten sein, die irgendeiner Eingabefunktionalität zugeordnet ist. Im Allgemeinen werden, wenn Objekte nahe oder auf einer berührungsempfindlichen Oberfläche platziert werden, Kontaktstellen erzeugt, und diese Kontaktstellen bilden ein Muster, das identifiziert werden kann. Das Muster kann mit irgendeiner Auswahl von Objekten gemacht werden, einschließlich z. B. mechanischen Merkmalen wie etwa Stiften oder Stempeln und/oder Abschnitten einer oder mehrerer Hände, wie etwa Finger, Daumen, Handfläche, Knöchel usw.
  • Der Akkord kann stark variieren und kann von vielen Faktoren abhängen, einschließlich der Größe der Berührungsoberfläche, ob die Berührungsoberfläche ein Berührungsbildschirm oder ein Berührungsfeld ist, usw. Weiterhin können die Akkorde auf einer Anzahl an unbekannten Kontakten oder einer speziellen Anordnung von bekannten Kontakten basieren. Die Akkorde können weiterhin darauf basieren, ob die Kontakte nahe beieinander, in einer neutralen Position oder weit verstreut sind. Die Akkorde können weiterhin darauf basieren, ob die Kontakte aneinanderliegend oder voneinander versetzt sind. Die Kontakte können weiterhin darauf basieren, ob sie von einer linken und/oder rechten Hand sind.
  • Bestimmen des Akkords kann Analysieren der Berührung (des Bildes, das durch Objekte erzeugt wird, die die Berührungsoberfläche berühren oder fast berühren) und Erkennen einer bestimmten Anordnung von Kontakten umfassen. Genauer kann die Bestimmung Klassifizieren oder Identifizieren der Kontakte über geo metrische Merkmale eines jeden Kontakts sowie geometrischen Anordnung von Kontakten umfassen, und dann Bezug nehmen auf eine Datenbank erwarteter Akkorde (z. B. Gestenabbildung). Wenn die Kontaktanordnung mit einem erwarteten Akkord übereinstimmt, dann kann angenommen werden, dass die Kontaktanordnung der erwartete Akkord ist. Diese Schritte können auch Filtern umfassen. Zum Beispiel können manche Kontakte in Wirklichkeit nicht Teil eines Akkords sein. Zum Beispiel können im Fall eines Handflächenberührungsfeldes Kontakte, die durch die Handfläche gebildet werden, ignoriert werden, da sie als Auflagefläche für die Finger der Hand dienen (z. B. sehr unbequem, Handflächen über der Berührungsoberfläche, während langen Zeitabschnitten zu halten).
  • Im Fall eines Tablett PCs mit einem Berührungsbildschirm können Kontakte, die vom Daumen mindestens einer Hand gebildet werden, ignoriert werden, da sie in erster Linie dazu verwendet werden, den Tablett PC zu halten.
  • Beispiele von Handakkorden werden unten in Tabelle 1 gezeigt. Es sollte erkannt werden, dass die Tabelle 1 keine erschöpfende Liste ist und dass sie als Beispiel und nicht als Beschränkung gezeigt wird. Zum Beispiel kann die Handfläche als ein Kontakt gezählt werden und irgendeiner der in Tabelle 1 gezeigten Kombinationen hinzugefügt werden, um mehr Akkorde zu erzeugen. Es sollte weiterhin bemerkt werden, dass viele Akkordkombinationen mehr gebildet werden können, indem die Liste von Tabelle 1 mit derselben Liste von der gegenüberliegenden Hand kombiniert wird. Es sollte auch bemerkt werden, dass, obwohl es viele Kombinationen gibt, manche Akkorde nicht machbar sein können, aus unterschiedlichen Gründen, einschließlich Benutzerfreundlichkeit, Ergonomie, Intuitivität usw.
  • Sobald der Akkord bestimmt wurde, kann die Operation nach Block 18 weitergehen, wo ein Gestensatz, der Aktionen mit einem oder mehreren Gestenereignissen verbindet, bestimmt wird. Ein Gestensatz kann eine Abbildung sein, die Aktionen mit Gestenereignissen verbindet. Der Gestensatz kann vom bestimmten Akkord abhängen, aber er kann auch von anderen Faktoren abhängen, einschließlich Stelle des Akkords, offene Anwendung, Zustand oder Modus der Anwendung, andere Berührungsmerkmale usw. Im Wesentlichen wählt der Akkord einen Eingabekanal aus, wobei jeder Kanal einen unterschiedlichen Gestensatz damit assoziiert hat. Aus Organisationsgründen und zur Benutzerfreundlichkeit sind in manchen Fällen die Kanäle mit einer bestimmten Eingabefunktionalität, wie etwa Navigationsoperationen, Dateioperationen, Editierungsoperationen, Ansichtsoperationen, Formatierungsoperationen, Werkzeugoperationen, Websurfingoperationen usw. assoziiert. Jede dieser Eingabefunktionalitäten kann einen assoziierten Befehlssatz haben, der mit den Gestenereignissen verbunden ist.
  • Die Aktionen können Zustandsbefehle oder manipulative Befehle sein. Ein Zustandsbefehl ist ein einzelner implementierter Befehl. Beispiele für Zustandbefehle umfassen neu, öffnen, schließen, löschen, umbenennen, alle auswählen, ausschneiden, kopieren, einfügen, rückgängig, wiederholen, gruppieren/Gruppierung auflösen, kursiv, fett, unterstrichen, vorheriger/nächster, abspielen/pause, stumm usw. Weitere Beispiele von Zustandskommandos umfassen das Starten eines bestimmten Programms, das Starten eines bestimmten Modus eines Programms, das Starten einer Webseite, das Öffnen einer Werkzeugleiste, das Öffnen eines Menüs, Pfeiltastenbedienung, Löschtaste, Leerzeichen, Eingabetaste, Tabulator, Feststelltaste, Funktionen, Zoomen, Vergrößern/Verkleinern, Blättern, Lautstärke usw. Ein manipulativer Befehl ist ein Befehl, der ununterbrochen das ausgewählte Objekt manipuliert. Beispiele von manipulativen Befehlen umfassen Zeigen, Nachverfolgen, Ziehen, Scrollen, Schwenken, Zoomen, Größeneinstellung, Dehnen, Blättern, Lautstärke usw. Es sollte erkannt werden, dass diese Beispiele keine Beschränkung sind, und dass andere Befehle verwendet werden können.
  • Wie oben bemerkt, kann ein Gestenereignis irgendeine stilisierte physische Aktion sein, die auf oder oberhalb der Berührungsoberfläche durchgeführt wird. Beispiele von Gestenereignissen können z. B. Bewegungen, Tippen, Druckveränderungen, Verweilen usw. umfassen. In manchen Fällen können die Gestenereignisse durch den Akkord durchgeführt werden. In anderen Fällen können die Gestenereignisse durch eine Untermenge des Akkords durchgeführt werden. In anderen Fällen können die Gestenereignisse durch neue Kontakte zusätzlich zum oder getrennt vom anfänglichen Akkord durchgeführt werden. Gestenereignisse werden unten detaillierter beschrieben werden.
  • In Block 20 kann die Berührung bezüglich Gestenereignissen überwacht werden und in Block 22 kann eine Bestimmung gemacht werden, ob Gestenereignisse erkannt werden oder nicht.
  • Das Erkennen der Gestenereignisse kann Analysieren der Berührungseigenschaften von Kontakten umfassen (Kontakte, die mit dem Akkord assoziiert sind und/oder neue Kontakte), Identifizieren eines bestimmten Musters und Bezug nehmen auf den Gestensatz und seine Liste von erwarteten Gestenereignissen. Wenn das Muster mit einem erwarteten Gestenereignis übereinstimmt, dann kann angenommen werden, dass das Muster das erwartete Gestenereignis ist. Die Berührungscharakteristik kann z. B. Berücksichtigungen erster Ordnung umfassen, wie Bewegung, Tippen, Druckänderung, Verweilen und Berücksichtigungen zweiter Ordnung, wie etwa Geschwindigkeit (absolute oder relative), Richtung (absolute oder relative), Ausrichtung (absolute oder relative), Größe (absolute oder relative), Dauer (absolute oder relative), Form (absolute oder relative), Länge (absolute oder relative) und/oder ähnliches.
  • In einer Ausführungsform können Gestenereignisse so entworfen oder ausgewählt werden, dass sie von anderen Gestenereignissen unterscheidbar sind, um Überlagerungen oder Fehler beim Erkennen des Gestenereignisses zu vermeiden (z. B. will man typischerweise Gestenereignisse einfach von anderen Gestenereignissen unterschieden haben).
  • Nochmals, Gestenereignisse können als Bewegung, Tippen, Druck, Verweilen usw. klassifiziert werden. Wenn sie Bewegung sind, können die Gestenereignisse wie folgt beispielhaft dargestellt werden: Gleiten in irgendeine Richtung, ein langsames lineares Schwenken nach rechts, links, oben und unten; ein schnelles lineares Umschnalzen nach rechts, links, oben und unten; eine langsame Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn; eine schnelle Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn, Zusammenziehen oder Entfalten zweier oder mehr Kontakte (z. B. Spreizen und Schließen einer Trennung zwischen Kontakten). Wenn sie ein Tippen sind, können die Gestenereignisse weiterhin beispielhaft erläutert werden wie folgt: ½ Tippen, ganzes Tippen, mehrfaches Tippen, schnelles Tippen, langsames Tippen usw. Wenn sie Druck sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als leichtes Drücken oder starkes Drücken. Wenn sie Verweilen sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als langes stationäres Anhalten oder kurzes stationäres Anhalten. Es sollte erkannt werden, dass diese Liste keine Beschränkung ist und dass Gestenereignisse auf andere Weisen oder mit anderen Ausrichtungen klassifiziert werden können. Zum Beispiel sind lineare Bewegungsgesten nicht auf rechts, links, oben und unten beschränkt und können weiterhin rechts oben, links oben, rechts unten, links unten umfassen.
  • Die Gestenereignisse können grundlegend oder fortgeschritten sein. Grundlegende Gesten können diejenigen Gesten mit einer Aktion sein, wie z. B. Schwenken linear nach rechts. Fortgeschrittene Gesten können diejenigen Gesten mit mehreren Aktionen sein, wie z. B. Schwenken linear nach rechts gefolgt von einem Tippen oder Schwenken linear nach rechts; langes Anhalten, Schwenken linear nach links; oder Drehen gegen den Uhrzeigersinn mit erhöhtem oder verringertem Druck. Fortgeschrittene Gesten können eine beliebige Anzahl an Aktionen umfassen. Grundlegende Gesten können aus Benutzerfreundlichkeits- und Verarbeitungskomplexitätsgründen verwendet werden.
  • Wenn ein Gestenereignis erkannt wird, kann die Operation zu Block 24 weitergehen, wo die mit den Gestenereignissen assoziierte(n) Aktion(en) durchgeführt werden. Block 24 kann Bezug nehmen auf den Gestensatz und Auffinden der Aktion(en), die mit den erkannten Gestenereignissen assoziiert ist/sind umfassen. Sobald sie aufgefunden ist/sind, kann/können die Aktion(en) initiiert werden. Wenn die Aktion ein Zustandsbefehl ist, kann der Befehl jedes Mal initiiert werden, wenn das Gestenereignis durchgeführt wird (das Gestenereignis arbeitet z. B. als Schaltfläche). In manchen Fällen kann das Gestenereignis so entworfen werden, dass es sich wiederholende Zustandsbefehle erzeugt. Wenn der Benutzer z. B. das Gestenereignis ausdehnt oder fortsetzt, können mehrere Zustandsbefehle initiiert werden. Dies kann in einem Spielmodus zum schnellen Feuern oder in einem Editiermodus hilfreich sein, wenn Arbeit rückgängig gemacht wird oder in einem Blättermodus, wenn durch Seiten geblättert wird. Wenn z. B. ein einzelner Rückgängig-Befehl durch ein schnelles lineares Schwenken nach rechts initiiert wird, kann ein sich wiederholender Rückgängig-Befehl durch ein schnelles lineares Schwenken gefolgt von einem langsamen linearen Schwenken in einer kontinuierlichen Bewegung (während Berührung) initiiert werden. In diesem Beispiel kann der Rückgängig-Befehl in Übereinstimmung mit dem langsamen linearen Schwenken wiederholt initiiert werden (z. B. wird der Rückgängig-Befehl alle 100 Millisekunden während des langsamen linearen Schwenkens ausgelöst). Wenn die Aktion ein manipulativer Befehl ist, kann der Befehl kontinuierlich während des Gestenereignisses erzeugt werden (z. B. eins zu eins Übereinstimmung zwischen Befehl und Gestenereignis). Wenn der Befehl z. B. Scrollen ist, kann Scrollen solange durchgeführt werden, wie das Gestenereignis durchgeführt wird und in Übereinstimmung mit den Gestenereigniseigenschaften (z. B. Geschwindigkeit, Richtung usw.).
  • Nach Block 24 kann die Operation nach Block 26 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schaltereignis ausgeführt wurde oder nicht. Ein Schaltereignis kann sich auf ein Ereignis beziehen, das die Operation zurücksetzt oder einen Akkordwechsel initiiert. Das Schaltereignis kann auf unterschiedliche Arten implementiert werden. Zum Beispiel kann es implementiert werden, indem alle Kontakte während einer vorbestimmten Zeitspanne entfernt werden (z. B. Heben der Hand von der Berührungsoberfläche). Es kann auch durch Ändern des Basisakkords während der Berührung implementiert werden (z. B. Hinzufügen/Entfernen von Kontakten). Es kann auch durch Hinzufügen/Entfernen von Kontakten der gegenüberliegenden Hand implementiert werden (z. B. Absetzen eines oder mehrerer Finger mit der gegenüberliegenden Hand, während die andere Hand noch berührt). Es kann auch durch Anhalten implementiert werden (z. B. wenn die Kontakte während einer vorher gesetzten Zeitspanne stationär bleiben). Es kann auch durch eine Tasteneingabe oder ein Tastenklicken von einer Standardtastatur oder Maus implementiert werden. Es kann auch durch ein Gestenereignis implementiert werden. Wenn ein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block 12. Wenn kein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block 20.
  • Tabelle 1 – Beispiele für einhändige Akkorde
  • Unbekannte Kontakte – Standardanordnung (keine Handfläche oder Handfläche ignoriert)
    • Beliebiger Finger
    • Beliebige zwei Finger
    • Beliebige drei Finger
    • Beliebige vier Finger
    • Daumen + beliebiger Finger
    • Daumen + beliebige zwei Finger
    • Daumen + beliebige drei Finger
    • Daumen + vier Finger
  • Unbekannte Kontakte – variierte Anordnung (keine Handfläche oder Handfläche ignoriert)
    • Zwei nebeneinander liegende Finger
    • Zwei nicht nebeneinander liegende Finger
    • Zwei nebeneinander liegende Finger + ein nicht angrenzender Finger
    • Daumen + zwei nebeneinander liegende Finger
    • Daumen + zwei nicht nebeneinander liegende Finger
    • Daumen + zwei nebeneinander liegende Finger + ein nicht angrenzender Finger
    • Beliebige zwei nebeneinander liegende Finger geschlossen
    • Beliebige zwei nebeneinander liegende Finger gespreizt
    • Beliebige drei nebeneinander liegende Finger geschlossen
    • Beliebige drei nebeneinander liegende Finger gespreizt
    • Vier nebeneinander liegende Finger geschlossen
    • Vier nebeneinander liegende Finger gespreizt
    • Daumen + zwei nebeneinander liegende Finger geschlossen
    • Daumen + zwei nebeneinander liegende Finger gespreizt
    • Daumen + drei nebeneinander liegende Finger geschlossen
    • Daumen + drei nebeneinander liegende Finger gespreizt
    • Daumen + vier nebeneinander liegende Finger geschlossen
    • Daumen + vier nebeneinander liegende Finger gespreizt
  • Bekannte Kontakte (keine Handfläche oder Handfläche ignoriert)
    • Zeigefinger
    • Mittelfinger
    • Ringfinger
    • Kleiner Finger
    • Zeigefinger + Mittelfinger
    • Zeigefinger + Ringfinger
    • Zeigefinger + kleiner Finger
    • Mittelfinger + Ringfinger
    • Mittelfinger + kleiner Finger
    • Ringfinger + kleiner Finger
    • Daumen + Zeigefinger
    • Daumen + Mittelfinger
    • Daumen + Ringfinger
    • Daumen + kleiner Finger
    • Daumen + Zeigefinger + Mittelfinger
    • Daumen + Zeigefinger + Ringfinger
    • Daumen + Zeigefinger + kleiner Finger
    • Daumen + Mittelfinger + Ringfinger
    • Daumen + Mittelfinger + kleiner Finger
    • Daumen + Ringfinger + kleiner Finger
    • Zeigefinger + Mittelfinger + Ringfinger
    • Zeigefinger + Mittelfinger + kleiner Finger
    • Zeigefinger + Ringfinger + kleiner Finger
    • Mittelfinger + Ringfinger + kleiner Finger
    • Daumen + Zeigefinger + Mittelfinger + Ringfinger
    • Daumen + Zeigefinger + Mittelfinger + kleiner Finger
    • Daumen + Zeigefinger + Ringfinger + kleiner Finger
    • Daumen + Mittelfinger + Ringfinger + kleiner Finger
    • Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger
    • Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger
  • Sonstige (Handfläche nach unten)
    • Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + kleiner Finger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
  • Sonstige
    • Rechte Handseite
    • Linke Handseite
    • Handrückseite
    • Handvorderseite (ganze)
  • Sonstige (Knöchel nach unten – Fausthieb)
    • Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger geschlossen oder zu Faust gewickelt
    • Daumen + Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
    • Daumen + Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
  • 2 zeigt eine illustrative Steueroperation 50. Die Operation kann bei Block 52 beginnen, wo eine Berührung oder Fast-Berührung detektiert wird.
  • Nach Block 52 kann die Operation zu Block 54 weitergehen, wo ein Gestensatz für die Berührung bestimmt wird. Der Gestensatz kann von vielen Faktoren abhängen, einschließlich Berührungscharakteristik, Berührungsort, Anwendung, Anwendungsmodus oder ähnliches. In den meisten Fällen basiert der Gestensatz zumindest teilweise auf der Kontaktanordnung beim Absetzen.
  • Nach Block 54 kann die Operation zu Block 56 weitergehen, wo die Berührung bezüglich Gestenereignissen überwacht wird, die mit dem Gestensatz assoziiert sind. Der Gestensatz kann ein oder mehrere Gestenereignisse zum Auslösen oder Initialisieren eines Befehls umfassen (Befehle können z. B. an bestimmte Gestenereignisse gebunden oder mit ihnen verbunden sein).
  • Nach Block 56 kann die Operation zu Block 58 weitergehen, wo ein oder mehrere Befehle initiiert werden, wenn Gestenereignisse durchgeführt werden. Zum Beispiel kann ein Benutzer eine bestimmte Fingeranordnung gleiten lassen, um ein Scrollereignis hervorzurufen oder zu initiieren.
  • 3 zeigt eine illustrative Steueroperation 60. Die Steueroperation 60 kann z. B. dem Block 54 in 2 entsprechen. Die Steueroperation 60 kann bei Block 62 beginnen, wo die anfängliche Kontaktanordnung erkannt wird. Danach kann in Block 64 die anfängliche Kontaktanordnung mit einem gespeicherten Satz an Kontaktanordnungen verglichen werden. Zum Beispiel kann das System auf eine Gestenabbildung Bezug nehmen, die eine Liste von anfänglichen Kontaktanordnungen umfasst und Gestensätze, die ihnen zugeordnet sind. Wenn es eine Übereinstimmung gibt, kann die Operation nach Block 66 weitergehen, wo der Gestensatz geladen wird, der der erkannten anfänglichen Kontaktanordnung zugeordnet ist.
  • 4 zeigt eine illustrative Steueroperation 70. Die Steueroperation 70 kann bei Block 72 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 74 die Stelle der Berührung bestimmt werden. Danach kann in Block 76 die Kontaktanordnung, die mit der Berührung assoziiert ist, bestimmt werden (z. B. Berührungsmuster). Danach kann in Block 78 die aktive Anwendung bestimmt werden. Danach kann in Block 80 der aktuelle Zustand der Anwendung bestimmt werden (z. B. aktueller Modus). Danach kann in Block 82 ein geeigneter Gestensatz gesetzt oder ausgewählt werden, auf der Grundlage von einem oder mehreren bestimmten Attributen, die oben erwähnt wurden (Blöcke 74 bis 80). Unter Verwendung der bestimmten Attribute kann ein System z. B. auf eine gespeicherte Gestenabbildung Bezug nehmen, die jedem der oben erwähnten Attribute einen bestimmten Gestensatz zuordnet. Die gespeicherte Gestenabbildung kann stan dardmäßig erzeugt werden oder sie kann durch den Benutzer anpassbar sein. Der Benutzer kann z. B. ein Steuerfeld verwenden, um Einstellungen zu ändern, die mit der Gestenabbildung verbunden sind, oder eine Trainingssequenz verwenden, um die Gestenabbildung zu programmieren.
  • 5 zeigt eine illustrative Steueroperation 100. Die Steueroperation kann bei Block 102 beginnen, wo eine Bestimmung gemacht wird, ob eine Berührung detektiert wurde oder nicht. Wenn eine Berührung detektiert wurde, kann die Operation nach Block 104 weitergehen, wo die Kontaktanordnung erkannt wird. Block 104 kann die Unterblöcke 106 und 108 enthalten. In Block 106 wird eine Bestimmung gemacht, ob die Kontaktstellen genau identifiziert werden können. Beispielsweise ob eine Kontaktstelle ein Zeigefinger oder ein Daumen oder eine Handfläche sein kann. Wenn sie nicht genau identifiziert werden können, dann kann die Operation nach Block 108 weitergehen, wo eine Anzahl an Kontaktstellen bestimmt wird. Beispielsweise ob es zwei Kontaktstellen gibt, drei Kontaktstellen usw. Nach Block 104 kann die Operation nach Block 110 weitergehen, wo die erkannte Kontaktanordnung mit gespeicherter Kontaktanordnung in einer Gestenabbildung verglichen wird. Wenn es keine Übereinstimmung gibt, dann kann die Operation nach Block 102 zurückgehen. Wenn es eine Übereinstimmung gibt, dann kann die Operation nach Block 112 weitergehen, wo nach Bezugnahme auf die Gestenabbildung der Gestensatz, der mit der anfänglichen Kontaktanordnung assoziiert ist, geladen wird. Danach kann in Block 116 die Berührung bezüglich Gestenereignissen überwacht werden, die mit dem Gestensatz assoziiert sind. Wenn ein Gestenereignis durchgeführt wird, kann die Operation nach Block 118 weitergehen, wo der mit dem Gestenereignis assoziierte Befehl ausgeführt wird.
  • 6 zeigt eine illustrative Steueroperation 120. Die Steueroperation 120 kann bei Block 122 beginnen, wo eine Berührung oder Fast-Berührung detektiert wird. Danach kann in Block 124 ein Akkord für die Berührung bestimmt werden. Danach kann in Block 126 die Eingabefunktionalität bestimmt werden, die mit dem Akkord assoziiert ist. Die Eingabefunktionalität kann eine Operation oder Gruppe von Operationen beschreiben. Beispiele für Operationen umfassen Navigations operationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Einfügeoperationen, Formatierungsoperationen, Werkzeugoperationen, Weboperationen usw. Die Eingabefunktionalität kann weiterhin auf Umgebungsbedingungen beruhen, einschließlich der Akkordposition auf der Berührungsoberfläche, Anwendungen, Modi usw. Danach kann in Block 128 der Gestensatz, der mit der Eingabefunktionalität assoziiert ist, aktiviert oder geladen werden. Ein Gestensatz kann eine Gruppe von Gestenereignissen sein, die jeweils mit einer unterschiedlichen Aktion assoziiert sind, die sich auf die Eingabefunktionalität bezieht. Das Gestenereignis kann durch den anfänglichen Akkord alleine durchgeführt werden, entweder als eine Gruppe, eine Untermenge der Gruppe oder relativ zu einem anderen. Alternativ können sie durch Objekte durchgeführt werden, die nicht mit dem Akkord assoziiert sind (z. B. Kontaktstellen, die hinzugefügt werden, nachdem der Basisakkord gesetzt ist). Das Gestenereignis kann Parameter erster Ordnung umfassen, wie etwa Bewegung, Tippen, Verweilen, Druck und/oder ähnliches. Das Gestenereignis kann auch Parameter zweiter Ordnung umfassen, die die Parameter erster Ordnung definieren, wie etwa Geschwindigkeit, Richtung, Form, zeitliche Abfolge/Dauer, Länge und/oder ähnliches. Danach können in Block 130 Aktionen, die mit den Gestenereignissen assoziiert sind, implementiert werden, wenn die Gestenereignisse durchgeführt werden.
  • 7 zeigt eine illustrative Gestenoperation 140. Die Operation 140 kann bei Block 142 beginnen, wo eine Berührung detektiert wird. Nach Block 144 kann die Operation nach Block 144 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block 146 der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block 146 kann die Operation nach Block 148 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz enthält Gestenereignisse, die mit einer beliebigen Kontaktanordnung während der Berührung durchgeführt werden können. Danach kann in Block 150 die Berührung bezüglich eines Gestenereignisses überwacht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch eine beliebige Kontaktanordnung durchgeführt wird, kann die Operation nach Block 152 weitergehen, wo die Steuerung/der Befehl, die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn kein Gestenereignis durchgeführt wurde, kann die Operation nach Block 154 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation nach Block 150 zurückgehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block 142 gehen. Das heißt ein Anheben gefolgt von einer Berührung setzt den Akkord und damit den Gestensatz zurück.
  • Das oben in 7 beschriebene Model zur Auswahl des anfänglichen Akkords erlaubt es einem Benutzer vorteilhafterweise, zusätzliche Finger anzuheben oder fallen zu lassen, ohne den Gestensatz zu berühren. Dies ist ergonomischer dadurch, dass ein Benutzer, der in einem Basisakkord von zwei Fingern startet, die übrigen drei Finger fallen lassen kann, so dass alle fünf Finger die Hand stützen. Als ein Ergebnis kann Gestikulieren während längerer Zeitabschnitte durchgeführt werden. Im Wesentlichen werden Veränderungen am Basisakkord ignoriert. Weiterhin ermöglicht es Benutzern, Zeigen/Ziehen, Scrollen in Berührungsoberflächen mit begrenztem Platz zu erweitern, indem er alle bis auf einen Finger anhebt und andere Finger zum Ziel gehen oder gleiten lässt.
  • 8 zeigt eine illustrative Gestenoperation 160. Die Operation 160 kann bei Block 162 beginnen, wo eine Bestimmung gemacht wird, ob 2 nebeneinander liegende Finger detektiert werden oder nicht. Wem dies so ist, kann die Operation nach Block 164 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nicht, kann die Operation nach Block 166 weitergehen, wo eine Bestimmung gemacht wird, ob 3 nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 168 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein, kann die Operation nach Block 170 weitergehen, wo eine Bestimmung gemacht wird, ob ein Daumen und zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 172 weitergehen, wo sekundäre Ziehoperationen durchgeführt werden. Wenn nein, kann die Operation zurück nach Block 162 weitergehen. Dieser Prozess kann je des Mal zurückgesetzt werden, wenn alle Finger von der Berührungsoberfläche abgehoben werden (z. B. Berührung wird nicht mehr detektiert).
  • 9 zeigt eine illustrative Gestenoperation 180. Die Operation 180 kann bei Block 182 beginnen, wo ein Basisakkord bestimmt wird. Danach kann die Operation drei verschiedene Prozesse entweder getrennt oder gleichzeitig durchführen (parallele Blöcke 184 bis 188). In Block 184 kann Bewegung mit dem Basisakkord detektiert werden. Danach können in Block 190 Zeigeoperationen in Übereinstimmung mit der Bewegung durchgeführt werden. In Block 186 kann ein neuer erster Finger detektiert werden. Das heißt ein neuer erster Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden (zusätzlich zum Basisakkord). Danach kann in Block 192 ein erster Befehl jedes Mal initiiert werden, wenn der neue erste Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen ersten Fingers durchführen. In Block 188 kann ein neuer zweiter Finger detektiert werden (zusätzlich zum Basisakkord). Das heißt, ein neuer zweiter Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden. Danach kann in Block 194 ein zweiter Befehl jedes Mal initiiert werden, wenn der neue zweite Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen zweiten Fingers durchführen, oder einfach dadurch, dass der Finger unten gehalten wird. Die in 9 beschriebene Operation wird manchmal Modell zur Auswahl des aktuellen Akkords genannt.
  • In einem Beispiel von 9 kann der Basisakkord 3 Finger sein (entweder Zeigefinger-Mittelfinger-Ringfinger oder Daumen-Mittelfinger-Ringfinger). Somit können drei Finger für Zeigeoperationen verwendet werden. Weiterhin kann der neue erste Finger der Daumen oder Zeigefinger sein, wenn der Daumen bereits Teil der Basis ist. Somit können der Daumen oder der Zeigefinger den ersten Befehl initiieren. Weiterhin kann der neue zweite Finger der kleine Finger sein. Somit kann der kleine Finger den zweiten Befehl initiieren.
  • Das obige Beispiel kann in Spielmodi nützlich sein. Der Basisakkord kann zum Zeigen verwendet werden, der erste neue Finger kann zum Auslösen verwendet werden und der zweite neue Finger kann für einen Waffenwechsel verwendet werden. Alternativ kann in Standardmodi der Basisakkord zum Zeigen verwendet werden, der erste neue Finger kann zum primären Klicken und Ziehen verwendet werden und der zweite neue Finger kann für ein sekundäres Klicken und Ziehen verwendet werden. Die drei Finger Unterstützung liefert ausreichende Unterstützung sowohl in Spiel- als auch Standardmodi.
  • 10 zeigt eine illustrative Gestenoperation 200. Die Operation 200 kann bei Block 202 beginnen, wo eine Berührung detektiert wird. Nach Block 204 kann die Operation nach Block 204 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block 206, der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block 206 kann die Operation nach Block 208 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz kann Gestenereignisse enthalten, die mit jeder beliebigen Kontaktanordnung während der ersten Berührung durchgeführt werden können. Danach kann in Block 210 die Berührung bezüglich eines Gestenereignisses überbracht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch irgendeine Kontaktanordnung durchgeführt wurde, kann die Operation nach Block 212 weitergehen, wo die Steuerung/der Befehl die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn ein Gestenereignis nicht durchgeführt wurde, kann die Operation nach Block 214 weitergehen, wo eine Bestimmung gemacht wird, ob der Basisakkord oder die aktuelle Kontaktanordnung während der Berührung angehalten wurde. Wenn ja, kann angenommen werden, dass die Pause ein Akkordwechselereignis ist und die Operation kann zurück nach Block 204 weitergehen. Wenn nein, kann die Operation nach Block 216 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird, oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation zurück nach Block 210 gehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block 202 weitergehen.
  • In dem in 10 beschriebenen Model zur Auswahl des Anhaltens können Wechsel nur stattfinden, wenn die Originalfinger angehalten werden oder sich ziemlich langsam bewegen. Somit können Benutzer von einem Finger hin zu Fünf-Finger-Zeigen entspannen, solange das Fingersenken mitten in einem Zeigezug ist.
  • 11 zeigt eine illustrative Gestenoperation 220. Die Operation 220 kann bei Block 222 beginnen, wo eine Bestimmung gemacht wird, ob 1 Finger detektiert wird oder nicht. Wenn ja kann die Operation nach Block 224 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein kann die Operation nach Block 226 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 228 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block 230 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nicht-nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 232 weitergehen, wo sekundäre Ziehoperationen durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nicht-nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block 34 weitergehen, wo eine Bestimmung gemacht wird, ob drei oder vier Finger detektiert werden oder nicht. Wenn ja, kann scrollen in Übereinstimmung mit Bewegung initiiert werden (Block 236). Wenn nein, kann die Operation zurück nach Block 222 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (z. B. Berührung wird nicht mehr detektiert), oder wenn der Akkord für einen Moment angehalten wird.
  • 12 zeigt eine illustrative Gestenoperation 240. Die Operation 240 kann bei Block 242 beginnen, wo eine Bestimmung gemacht wird, ob 5 Finger detektiert werden oder nicht. Wenn ja kann die Operation weiter nach Block 244 gehen, wo Zeigen initiiert wird, bis alle Finger von der Berührungsoberfläche abgehoben werden. In Block 246 wird eine Bestimmung gemacht, ob einer der 5 Finger ein Abheben und Tippen während dem Zeigen macht oder nicht. Wenn ja, kann ein Klicken durchgeführt werden (Block 248). In Block 250 wird eine Bestimmung gemacht, ob zwei der 5 Finger ein Abheben und Tippen während des Zeigens machen oder nicht. Wenn ja, kann Ziehen durchgeführt werden (Block 252). Danach wird in Block 253 eine Bestimmung gemacht, ob ein oder zwei der 5 Finger ein Abheben und. Tippen während des Ziehens machen oder nicht. Wenn ja, kann ein Fallenlassen durchgeführt werden (Block 254). Wenn nein, kann das Ziehen weitergehen. Nach den Blöcken 250 und 254 kann die Operation zurück nach Block 244 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (d. h. Berührung wird nicht mehr detektiert) oder wenn der Akkord für einen Moment angehalten wird.
  • In einer alternativen Ausführungsform von 12 kann Anheben und Tippen eines links orientierten Fingers des fünf Finger-Basisakkords ein Klicken der linken Taste und ein Anheben und Tippen eines rechts orientierten Fingers des Basisakkords kann ein Klicken der rechten Taste initiieren.
  • 13 zeigt die illustrative Gestenoperation 260. Die Operation 260 kann bei Block 262 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 264 die Seite des kleinen Fingers erkannt werden. Die Seite des kleinen Fingers erzeugt eine lange (stark exzentrische) horizontale Kontaktstelle, die von allen anderen Kontakten (mit Ausnahme möglicherweise eines abgeflachten Daumens) verschieden ist. So kann das Gestensystem in der Lage sein, horizontal exzentrische aber dünne Kontakte konsistent als einen kleinen Finger (oder möglicherweise einen Daumen) zu klassifizieren. Danach kann in Block 266 ein Wischen mit der Seite des kleinen Fingers detektiert werden.
  • Danach kann in Block 268 eine Steuerung oder ein Befehl durchgeführt werden, die/der mit dem wischenden kleinen Finger assoziiert ist.
  • Wischen mit der Seite des kleinen Fingers kann für einfache Steuergesten, wie Lautstärke hoch/runter, schlafen, Bildschirmschoner usw. nützlich sein. Das Wischen mit der Seite des kleinen Fingers hat die Einfachheit, eine Berührung mit der Seite des kleinen Fingers, während sie als vom normalen 1-Fingerspitzen-Zeigen/-Klicken unterschiedlich erkennbar ist. Es ist auch sehr ergonomisch, weil während des Berührens mit der Seite des kleinen Fingers der Daumen gerade nach oben in die Luft zeigt. Dies ist die neutralste komfortable aller Handgelenkspositionen.
  • 14 zeigt eine illustrative Gestenoperation 280. Die Operation 280 kann bei Block 282 beginnen, wo eine Gestensatzzuordnung Hochgleiten nach Freilegen und Hinuntergleiten nach Instrumententafel zur Verfügung gestellt wird.
  • Instrumententafel ist ein Steuerfeld, das anpassbare Vorrichtungen (Minianwendungen) enthält, die dem Benutzer sofort Informationen bringen – Wettervorhersagen, Aktienkurse, Gelbe Seiten, Fluglinienflüge, Sportergebnisse usw. In den meisten Fällen wird die Instrumententafel in Sicht gebracht, wenn sie aktiviert wird, und wenn sie deaktiviert wird, wird die Instrumententafel aus der Sicht entfernt. Der Benutzer kann aktuelle und zeitnahe Information aus dem Internet mit einem Tastenklick erhalten und sie dann sofort verschwinden lassen, wenn die Taste losgelassen wird.
  • Darlegen ist ein Fensterverwaltungsprogramm. Fensterverwaltungsprogramme sind konfiguriert, um beim Navigieren durch oder Abschwächen eines Fensterdurcheinanders zu helfen (der Zustand, in dem es schwierig ist, Dokumente zu finden oder den Schreibtisch zu sehen, weil es so viele offene Fenster und/oder Anwendungen gibt). Darlegen kann drei verschiedene Operationsmodi haben oder von ihnen ausgewählt werden, die durch Gestikulieren gesteuert werden können. Der erste Modus ist Alle Fenster oder Kachel, Skaliere oder Zeige alle. Wenn in diesem Modus gearbeitet wird, werden alle offenen Fenster gekachelt und so skaliert, dass all die offenen Fenster gleichzeitig innerhalb des Anzeigebildschirms gesehen werden können. Das heißt Durchführen der spezifizierten Geste kachelt sofort alle offenen Fenster – skaliert sie herunter und ordnet sie schön an, so dass der Benutzer den Inhalt in jedem Fenster betrachten kann. Die Skalierungsmenge oder Skalierungsrate kann an irgendeine Eigenschaft der Geste gebunden sein, wie z. B. Druck oder Geschwindigkeit. Der zweite Modus ist Anwendungsfenster oder Hebe Aktuelle Anwendung hervor. Dieser Modus arbeitet ähnlich dem ersten Modus, außer dass er nur auf einer bestimmten Anwendung arbeitet. Zum Beispiel kann das Durchführen einer bestimmten Geste sofort die offenen Fenster einer bestimmten Anwendung kacheln, während es verursacht, dass alle anderen offenen Anwendungen zu einem Grauton abblenden. Der dritte Modus ist Schreibtisch oder Verstecke Alle. In diesem Modus werden alle offenen Fenster zu den Bildschirmrändern bewegt, wodurch der Schreibtisch geöffnet wird. Das heißt Durchführen der bestimmten Geste kann alle offenen Fenster verbergen, wodurch dem Benutzer sofortiger Zugang zu seinem Schreibtisch gegeben wird.
  • Danach können in Block 284 die Operationen Erkennen eines Basis Akkords beinhalten (z. B. zwei oder mehr Finger). Danach kann in Block 286 eine Bestimmung gemacht werden, ob ein Hochgleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 288 weitergehen, wo Alle Darlegen geöffnet wird. Danach kann in Block 290 eine Bestimmung gemacht werden, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 292 weitergehen, wo Alle Darlegen geschlossen wird. Danach kann die Operation zurück nach Block 286 weitergehen. Unter Bezugnahme auf Block 286 kann die Operation dann, wenn ein Hochgleiten durch den Basisakkord nicht Detektiert wird, nach Block 294 weitergehen, wo eine Bestimmung gemacht werden kann, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 296 weitergehen, wo Instrumententafel geöffnet wird. Danach kann in Block 298 eine Bestimmung gemacht werden, ob ein Hochgleiten detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 300 weitergehen, wo Instrumententafel geschlossen wird. Danach kann die Operation zurück nach Block 286 weitergehen. Unter Bezugnahme zurück auf Block 294 kann die Operation, wenn ein Heruntergleiten nicht detektiert wird, nach Block 301 weitergehen, wo eine Bestimmung gemacht wird, ob sich der Akkord geändert hat. Zum Beispiel Wegheben eines Fingers. Wenn sich der Akkord geändert hat, kann die Operation nach Block 302 weitergehen, wo Zeigen mit dem geänderten Akkord durchgeführt wird. Danach kann in Block 304 eine Bestimmung gemacht werden, ob der Akkord in den Basisakkord zurück geändert wurde oder nicht. Wenn ja, kann die Operation zurück nach Block 286 weitergehen. Die Gestenoperation 280 wird manchmal Abbrechen in gegenüberliegende Richtung genannt.
  • In zusätzlichen Ausführungsformen kann die in 14 gezeigte Operation so modifiziert werden, dass sie Wischen nach rechts und links umfasst, die jeweils mit einer unterschiedlichen Funktionalität von Darlegen assoziiert sind.
  • Eine statische Befehlsgeste ist eine Geste, die durch einfaches Platzieren einer bestimmten Kontaktanordnung auf einer Berührungsoberfläche durchgeführt wird. Ein Befehl wird initiiert, wenn die bestimmte Kontaktanordnung beim Auftreffen identifiziert wird. Es gibt keine Gestenereignisse, die der anfänglichen Platzierung folgen. Der Befehl wird einfach erzeugt, wenn die Berührung detektiert wird. Die statische Befehlsgeste kann analog eine Zeichensprache sein, wo spezifische Handanordnungen unterschiedliche Dinge bedeuten. Im Zusammenhang mit einer statischen Befehlsgeste initiiert jede Handanordnung (oder unterschiedliche Kontaktanordnung) einen unterschiedlichen Befehl.
  • 15 zeigt die illustrative Gestenoperation 310. Die Gestenoperation 310 kann bei Block 312 beginnen, wo eine Berührung oder eine beinahe Berührung an einer Berührungsoberfläche detektiert wird. Nach Block 312 kann die Operation nach Block 314 weitergehen, wo eine Kontaktstellenanordnung, die mit der Berührung assoziiert ist, identifiziert wird. Die Kontaktstellenanordnung kann durch eine oder zwei Hände gemacht werden, oder alternativ oder zusätzlich durch Elemente wie einen Stift oder Stempel. Wenn die Kontaktstellen durch die Hand erzeugt werden, können sie durch irgendeinen Abschnitt der Hand gemacht werden, inklusive Finger, Handflächen usw., und weiterhin durch irgendeine Ausrichtung der Hand, durch irgendeine Position der Finger relativ zueinander und durch irgendeine Ausrichtung von Fingern. Wie erkannt werden sollte, werden verschiedene Handausrichtungen und verschiedene Fingerpositionen/-Ausrichtungen eine unterschiedliche Kontaktstellenanordnung erzeugen. Beispiele von verschiedenen Ausrichtungen umfassen offene Hand nach unten, offene Hand nach oben, offene Hand mit der Seite nach unten (Daumen unten), geschlossene Hand – Handfläche unten, geschlossene Hand – Handrücken, geschlossene Hand – Knöchel, geschlossene Hand – mit der Seite nach unten. Beispiele von verschiedenen Fingerpositionen umfassen gespreizt, neutral, gruppiert, usw. Jede Kontaktanordnung kann in Betracht gezogen werden (Zeichensprache).
  • Nach Block 314 kann die Operation nach Block 316 weitergehen, wo ein Befehl, der an eine bestimmte Kontaktanordnung gebunden ist, initiiert wird, wenn die bestimmte Kontaktanordnung identifiziert wird. Die Befehle können stark variieren.
  • 16 zeigt eine illustrative Gestenoperation 320. Die Gestenoperation 320 kann bei Block 322 beginnen, wo eine Berührung bezüglich Bewegung überwacht wird. Die Berührung kann z. B. als eine spezielle Kontaktanordnung ausgeführt sein. Wenn es Bewegung gibt, kann die Gestenoperation weitergehen nach Block 324, wo die Bewegung zwischen einem Schnalzen und einem Wischen unterschieden wird. Ein Schnalzen kann eine schnelle kurze Bewegung sein. Ein Wischen kann eine längere langsame Bewegung sein. Wenn die Bewegung ein Schnalzen ist, dann kann eine erste Aktion durchgeführt werden, wenn das Schnalzen detektiert wird (Block 326). Wenn die Bewegung Wischen ist, dann kann eine zweite Aktion durchgeführt werden, wenn das Wischen detektiert wird (Block 328).
  • 17 zeigt eine illustrative Gestenoperation 330 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation 330 kann bei Block 332 beginnen, wo eine Berührung auf einer Berührungsoberfläche detektiert wird (z. B. Berührungsfeld, Berührungsbildschirm). Nach Block 332 kann die Operation nach Block 334 weitergehen, wo zwei Kontakte, die mit der Berührung assoziiert sind, identifiziert werden. Danach kann die Operation in Block 336 Überwachung der Bewegung bezüglich eines Gestenereignisses umfassen. In Block 338 kann ein Drehbefehl initiiert werde, wenn ein erster Kontakt stationär ist und der zweite Kontakt um den ersten Kontakt gedreht wird.
  • Viele Benutzer halten mehrere Fenster gleichzeitig offen. Dies ermöglicht ihnen, zwischen Fenstern, wie benötigt, hin und her zu gehen. Dies kann nützlich sein, wenn sie von einem Fenster kopieren und in ein anderes Fenster einfügen. In einem typischen Prozess wählt der Benutzer eines der Fenster aus, wodurch er das Fenster aktiviert, und führt dann Aktionen mit dem Fenster aus. Der Benutzer wählt dann ein anderes Fenster an, wodurch er das neue Fenster aktiviert und das alte Fenster deaktiviert und führt dann Aktionen mit dem neuen Fenster aus. Dies ist umständlich und besteht aus vielen Schritten. Um dies zu beseitigen, stellt die vorliegende Erfindung ein Verfahren in 18 zur Verfügung, das dem Benutzer die Möglichkeit gibt, zwischen Fenstern ohne Aktivieren und Deaktivieren hin und her zu gehen. Die Fenster werden aktiv, wenn sich ein Zeigemechanismus über dem Fenster befindet. Der Zeigemechanismus kann ein Zeiger oder Cursor im Fall eines Berührungsfeldes sein oder ein Finger im Fall eines Berührungsbildschirms.
  • 18 zeigt eine illustrative Gestenoperation 340. Die Gestenoperation 340 umfasst das zur Verfügung stellen mehrerer Fenster 342. Die Fenster können z. B. geöffnete Programme auf einer Schreibtischoberfläche sein. Danach kann die Operation in Block 344 Detektieren eines Zeigemechanismus über dem ersten Fenster umfassen. Im Fall eines Berührungsfeldes kann der Zeigemechanismus z. B. ein Cursor sein. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Danach kann in Block 346 die Berührung überwacht werden, um zu bestimmen, ob ein Akkord, der mit dem Zeigemechanismus assoziiert ist, dargeboten wurde. Im Fall eines Berührungsfeldes kann dies bewerkstelligt werden, nachdem der Cursor über dem Fenster platziert ist. Im Fall eines Berührungsbildschirms kann dies bewerkstelligt werden, während der Finger über dem Fenster positioniert ist. Danach kann in Block 348 ein Gestensatz, der mit dem Akkord und dem ersten Fenster assoziiert ist, initiiert werden (z. B. hängt der Gestensatz sowohl vom Akkord als auch vom Fenster ab). Danach können in Block 350 Aktionen im ersten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden. Danach kann in Block 352 die Operation Detektieren eines Zeigemechanismus über dem zweiten Fenster umfassen. Dies kann zu einem von Block 344 unterschiedlichem Zeitpunkt bewerkstelligt werden oder es kann gleichzeitig mit Block 344 geschehen. Der Zeigemechanismus kann derselbe Zeigemechanismus sein, der für das erste Fenster verwendet wird (z. B. wird der Zeigemechanismus von einem Fenster in das andere bewegt) oder alternativ kann der Zeigemechanismus ein zweiter Zeigemechanismus sein (z. B. zweiter Cursor oder zweiter Finger). Danach kann in Block 354 die Berührungsoberfläche überwacht werden, um zu Bestimmen, ob ein Akkord, der mit dem zweiten Zeigemechanismus assoziiert ist, dargeboten wurde. Danach kann in Block 356 ein Gestensatz, der mit dem Akkord und dem zweiten Fenster assoziiert ist, initiiert werden. Danach können in Block 358 Aktionen im zweiten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden.
  • In einem Beispiel von 18, das einen Berührungsbildschirm verwendet, dann der Benutzer, wenn ein Benutzer Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über das erste Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann auch Finger von einer zweiten Hand über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen.
  • In einem anderen Beispiel von 18, in dem ein Berührungsbildschirm verwendet wird, kann ein Benutzer, wenn der Benutzer ein Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über dem ersten Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann dann seine Hand zum zweiten Fenster bewegen. Der Benutzer kann seine Finger über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen.
  • 19 zeigt eine illustrative Operationsgeste 360. Die Operationsgeste kann bei Block 364 beginnen, wo die Kontaktanordnung, die mit einer ersten Hand assoziiert ist, erkannt wird. Nach Block 364 kann die Operation nach Block 366 weitergehen, wo ein Gestensatz auf der Grundlage einer Kontaktanordnung, die mit der ersten Hand assoziiert ist, geladen wird. Nach Block 366 kann die Operation nach Block 368 weitergehen, wo eine zweite Kontaktanordnung, die mit einer zweiten Hand assoziiert ist, erkannt wird. Nach Block 368 kann die Operation nach Block 370 weitergehen, wo der Gestensatz der ersten Kontaktanordnung auf der Grundlage der zweiten Kontaktanordnung geändert oder modifiziert wird. Wie erkannt werden sollte, kann die zweite Hand verwendet werden, um schnell zwischen verschiedenen Gestensätzen wie benötigt zu modulieren. Dies kann auch eine größere Bandbreite an möglichen Gestensätzen ermöglichen. Wenn z. B. die erste Hand fünf Gestensätze auf der Grundlage der Fingeranzahl zur Verfügung stellen kann und die zweite Hand fünf Modifizierer auf der Grundlage der Fingerzahl liefern kann, dann können 100 Gestensätze erzeugt werden.
  • Um ein Beispiel von 19 zu zitieren, wo ein Berührungsfeld verwendet wird, kann der Benutzer zwei Finger auf dem Berührungsfeld platzieren und dadurch einen Gestensatz initiieren, der mit den zwei Fingern assoziiert ist. Der Benutzer kann Gestenereignisse unter Verwendung der zwei Finger durchführen. Der Benutzer kann entscheiden, dass er eine Aktion durchführen muss, die nicht vom zwei Finger Gestensatz angeboten wird. Der Benutzer kann daher zwei Finger von der gegenüberliegenden Hand heruntersetzen. Dies kann einen völlig neuen Gestensatz laden, der durch die erste Hand durchzuführen ist.
  • 20 zeigt eine illustrative Steueroperation 380. Die Steueroperation kann bei Block 382 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Zum Beispiel kann eine Maus mit einem Laptop Computer verbunden sein, der ein Berührungsfeld umfasst. Nach Block 382 kann die Operation nach Block 384 weitergehen, wo die Maus bezüglich Mausereignissen überwacht wird (z. B. Bewegen eines Cursors, Tastenklicken, Scrolling). Gleichzeitig kann in Block 386 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. In Block 388 können Mausoperationen in Übereinstimmung mit Mausereignissen durchgeführt werden. Gleichzeitig können in Block 390 Gestenoperationen in Übereinstimmung mit Gestenereignissen durchgeführt werden. Dieses Verfahren ermöglicht es einem Benutzer, eine Maus mit einer Hand zu steuern, während er mit der gegenüberliegenden Hand Gesten durchführt. Der Benutzer kann daher produktiver sein.
  • In einem Beispiel von 20 kann in einem Tabellenkalkulationsprogramm ein Benutzer Zellen unter Verwendung der Maus anwählen, dann eine Kopiergeste mit der gegenüberliegenden Hand auf einer Berührungsoberfläche durchführen. Der Benutzer kann dann durch die Tabelle unter Verwendung einer Scroll- oder Schwenkgeste scrollen oder schwenken. Sobald eine gewünschte Stelle gefunden wird, kann der Benutzer die gewünschten Zellen oder Zelle zum Einfügen unter Verwendung der Maus anwählen und dann eine Einfügegeste durchführen.
  • 21 zeigt eine illustrative Steueroperation 400. Die Steueroperation kann bei Block 402 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Nach Block 402 kann die Operation nach Block 404 weitergehen, wo die Maus bezüglich Mausereignissen (z. B. Bewegen eines Cursors, Tasten, Klicken, Scrolling) überwacht wird. Gleichzeitig kann in Block 406 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. Danach kann in Block 408 der Mausmodus auf der Grundlage einer Berührung oder Gestenereignissen geändert werden, die auf der Berührungsoberfläche durchgeführt werden. Zum Beispiel kann die berührende Hand verwendet werden, um die Funktionalität der Maus, die mit der anderen Hand bedient wird, zu modifizieren.
  • Zum Beispiel kann die Anwesenheit eines Fingers auf der Berührungsoberfläche die Maus von einem Nachverfolgungsmodus in einen Scrollmodus wechseln lassen.
  • 22 zeigt eine illustrative Steueroperation 410. Die Operation kann bei Block 412 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Nach Block 412 kann die Operation nach Block 414 weitergehen, wo die erste Kontaktanordnung erkannt wird. Dies kann z. B. mit einer ersten Hand erreicht werden. Gleichzeitig kann in den Blöcken 416 und 418 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block 420 kann der Gestensatz für die erste Kontaktanordnung geladen werden. Gleichzeitig kann in Block 422 der Gestensatz für die zweite Kontaktanordnung geladen werden. In Block 424 kann die erste Berührung bezüglich erster Gestenereignisse überwacht werden. Gleichzeitig kann in Block 426 die zweite Berührung bezüglich zweiter Gestenereignisse überwacht werden. In Block 428 können Aktionen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block 430 Aktionen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden.
  • 23 zeigt eine illustrative Steueroperation 440. Die Operation 440 kann bei Block 442 starten, wo ein GUI Objekt angezeigt wird. Danach können in Block 444 mehrere Zeiger an verschiedenen Punkten des angezeigten GUI Objekts detektiert werden. Im Fall eines Berührungsbildschirms können die ersten Zeiger (ein) Finger von einer ersten Hand sein und der zweite Zeiger kann (ein) Finger von einer zweiten Hand sein. Im Fall eines Berührungsfeldes kann der erste Zeiger ein Cursor sein, der von einer ersten Hand gesteuert wird und der zweite Zeiger kann ein Cursor sein, der von einer zweiten Hand gesteuert wird. Sobald die Zeiger detektiert sind, können die Zeiger auf das angezeigte Objekt in Block 445 arretiert werden. Dies kann z. B. durch Anhalten erreicht werden. Zum Beispiel kann der Benutzer die Zeiger an Punkten auf dem GUI Objekt positionieren und dann dort innehalten, bis die Zeiger arretiert sind. Danach kann in Block 446 die Position der Zeiger relativ zu ihrer arretierten Position überwacht werden. Danach kann in Block 448 das angezeigte Objekt modifiziert werden, wenn die Position eines oder mehrerer Zeiger relativ zu seiner arretierten Position bewegt wird. Zum Beispiel können die Attribute des GUI Objekts, die z. B. Ausrichtung, Größe und Form umfassen, modifiziert werden.
  • Um ein Beispiel von 23 zu zitieren, kann der Benutzer, um ein Objekt zu drehen, seine Zeiger auf das GUI Objekt positionieren und einen oder zwei Zeiger rotieren, wenn sie arretiert sind. Das GUI Objekt kann der Rotation des einen oder der zwei Zeiger folgen, wodurch seine Ausrichtung geändert wird. Um seine Größe zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und die zwei Zeiger zusammen oder voneinander wegschieben, wenn sie arretiert sind. Wenn sie zusammengeschoben werden, kann die Größe des Objekts verringert werden. Wenn sie auseinandergeschoben werden, kann die Größe des Objekts vergrößert werden. Um seine Form zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und einen Zeiger nach oben, unten, rechts links schieben, wenn er arretiert ist. Wenn er vom Objekt weggeschoben wird, kann das Objekt in der Schieberichtung größer gemacht werden. Wenn er zum Objekt hingeschoben wird, kann das Objekt in der Schieberichtung kleiner gemacht werden.
  • 24 zeigt eine illustrative Steueroperation 450. Die Operation kann bei Block 452 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Dies kann z. B. durch eine erste Hand erreicht werden. Nach Block 452 kann die Operation nach Block 454 weitergehen, wo die erste Kontaktanordnung, die mit der ersten Berührung assoziiert ist, erkannt wird. Gleichzeitig kann in den Blöcken 456 und 458 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block 460 kann die erste Berührung bezüglich ersten Gestenereignissen überwacht werden. Gleichzeitig kann in Block 462 die zweite Berührung bezüglich zweiten Gestenereignissen überwacht werden. In Block 464 können Zeigeoperationen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block 466 Zeigeoperationen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden.
  • 25 zeigt eine illustrative Steueroperation 470. Die Steueroperation kann bei Block 472 beginnen, wo eine Gruppe von anwählbaren Gegenständen angezeigt wird. Die Gruppe von anwählbaren Gegenständen kann z. B. eine Farbpalette oder eine Werkzeugleiste sein. Nach Block 472 kann die Operation nach Block 474 weitergehen, wo ein erster Zeigemechanismus über der Gruppe von selektierbaren Gegenständen detektiert wird. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Im Fall eines Berührungsfeldes kann der Zeigemechanismus ein Cursor oder ein Werkzeug sein, das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block 476 kann der Gegenstand unter dem ersten Zeigemechanismus aktiviert (angewählt) werden. Der aktivierte Gegenstand kann auf der Position des Zeigemechanismus beruhen. Zum Beispiel kann der aktivierte Gegenstand hervorgehoben werden, wenn der erste Zeigemechanismus über dem Gegenstand positioniert wird. In Block 478 kann ein zweiter Zeigemechanismus gleichzeitig über einem Fenster detektiert werden (z. B. arbeiten beide Zeigemechanismen gleichzeitig). Das Fenster kann z. B. eine Leinwand in einem Zeichen – oder Malprogramm sein. Im Fall eines Berührungsbildschirms kann der zweite Zeigemechanismus ein Finger oder eine Fingergruppe sein (von der gegenüberliegenden Hand wie der erste Zeigemechanismus). Im Fall eines Berührungsfelds kann der zweite Zeigemechanismus ein Cursor oder Werkzeug sein, der/das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block 480 kann der angewählte Gegenstand auf den zweiten Zeigemechanismus angewendet werden. Zum Beispiel kann im Fall einer Werkzeugleiste die Werkzeugfunktionalität des zweiten Zeigemechanismus auf dem angewählten Gegenstand basieren. Weiterhin kann im Fall eines Berührungsfeldes das Werkzeug-UI Element sich mit der Funktionalität ändern, so dass der Benutzer weiß, welches Werkzeug aktiv ist (z. B. Bleistift, Pinsel usw.). Im Fall einer Palette kann die Ausgabe des zweiten Zeigermechanismus auf dem ausgewählten Gegenstand basieren. Wenn z. B. im Fall des Malens der Benutzer eine Farbe auf der Palette auswählt, wechselt die Ausgabe des zweiten Zeigers zu dieser Farbe. Der Benutzer kann daher die Farbe, die auf die Leinwand angewendet wird, sofort während einer Maloperation anpassen.
  • 26 zeigt eine illustrative Steueroperation 500. Die Steueroperation kann bei Block 502 beginnen, wenn eine Gruppe von Mediengegenständen angezeigt wird. Die Mediengegenstände können z. B. Lieder, Videoclips, Filme, Fotos, Spiele und ähnliches sein. Die Mediengegenstände können z. B. durch ein Medienverwaltungsprogramm gesteuert werden. iPhoto und iTunes hergestellt von Apple Inc. aus Cupertino, sind Beispiele für Medienverwaltungsprogramme. In Block 504 kann ein Zeigemechanismus über einem Gegenstand detektiert werden und dadurch den Gegenstand hervorheben. Der Zeigemechanismus kann z. B. durch eine Maus oder einen Handakkord (dominante Hand) gesteuert werden. In Block 506 kann eine Berührung auf einer Berührungsoberfläche detektiert werden. Die Berührung kann durch die Hand durchgeführt werden, die der Hand, die mit dem Zeigemechanismus assoziiert ist, gegenüberliegt. Danach kann in Block 508 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Danach können in Block 510 Metadaten, die an die erkannte Kontaktanordnung gebunden sind, in den hervorgehobenen Gegenstand eingefügt werden. Jede der Kontaktanordnungen kann verschiedene Metadaten haben. Zum Beispiel kann ein einzelner Finger erste Metadaten haben, zwei Finger können zweite Metadaten haben, drei Finger können dritte Metadaten haben, vier Finger können vierte Metadaten haben, fünf Finger können fünfte Metadaten haben, usw. Die Metadaten für jede Kontaktanordnung können sich auf dieselbe Funktionalität beziehen oder sie können völlig verschiedene Funktionalitäten haben.
  • Um ein Beispiel von 26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu bewerten oder einzuordnen. Zum Beispiel kann ein einzelner Finger eine 1 Stern Einordnung an ein Lied binden, zwei Finger können eine 2 Stern Einordnung an ein Lied binden, drei Finger können eine 3 Stern Einordnung an ein Lied binden, vier Finger können eine 4 Stern Einordnung an ein Lied binden und fünf Finger können eine 5 Stern Einordnung an ein Lied binden.
  • Um ein weiteres Beispiel von 26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu identifizieren. Zum Beispiel kann ein einzelner Finger eine erste Person (z. B. Ehefrau Darcy) an ein Foto binden, ein zweiter Finger kann eine zweite Person (z. B. Tochter Halley) an ein Foto binden, ein dritter Finger kann eine dritte Person (z. B. Cousin Camden) an ein Foto binden, ein vierter Finger kann eine vierte Person (Onkel Chance) an ein Foto binden und ein fünfter Finger kann eine fünfte Person (z. B. Großmutter Shery) an ein Foto binden. Tippen kann verwendet werden, um die Liste zu vergrößern. Zum Beispiel kann die Anzahl an Fingern beim ersten Absetzen der Anzahl an Fingern beim zweiten Absetzen hinzugefügt werden, um eine endgültige Kontaktanordnung zu erzeugen. Drei Finger gefolgt von zwei Fingern können immer noch die fünfte Person bedeuten. Während fünf Finger und ein Finger (im ganzen 6 Finger) eine sechste Person (z. B. Großmutter Terry) an ein Foto binden können. Weiterhin können fünf Finger und zwei Finger eine siebte Person (z. B. Hund Prima) an ein Foto binden, fünf Finger und drei Finger können eine achte Person (Freundin Lisa) an ein Foto binden, fünf Finger und vier Finger können eine neunte Person an ein Foto binden und fünf Finger und fünf Finger können eine zehnte Person an ein Foto binden. Alternativ können die Metadaten nicht mit einer Person sondern mit einer anderen Eigenschaft von Fotos assoziiert werden (z. B. Ferien, Kalifornien, Landschaft, Familie usw.).
  • Im Allgemeinen kann es das Medienverwaltungsprogramm verlangen, in einen Metadaten-Einfügungsmodus gebracht zu werden. Dies kann herkömmlicherweise durch Steuerung auf dem Bildschirm oder alternativ durch den Akkord erreicht werden, der mit den Zeigemechanismen verbunden ist.
  • 27 zeigt eine illustrative Steueroperation 520. Die Steueroperation kann bei Block 522 beginnen, wo ein Steuerobjekt angezeigt wird. Das Steuerobjekt kann z. B. eine Schaltfläche, Wählscheibe, Schieber, Schalter usw. auf dem Bildschirm sein. In Block 524 kann eine Berührung über dem Steuerobjekt detektiert werden. Danach kann in Block 526 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Im Block 527 kann eine Bestimmung gemacht werden, ob die Kontaktanordnung mit der Kontaktanordnung, die mit Steuerung des Steuerobjekts assoziiert ist, übereinstimmt oder nicht. Wenn sie nicht übereinstimmt, kann die Operation nach Block 528 weitergehen, wo die Berührung ignoriert wird. Wenn sie übereinstimmt, kann die Operation nach Block 530 weitergehen, wo die Berührung bezüglich eines Gestenereignisses überwacht wird, das mit Steuern des Steuerobjekts assoziiert ist. Wenn ein Gestenereignis durchgeführt wird, kann die damit assoziierte Aktion auf das Steuerobjekt angewendet werden, so dass das Steuerobjekt seine Befehle erzeugen kann (Block 432).
  • In einer Ausführungsform von 27 kann eine Kontaktanordnung, die Steuern des Steuerobjekts initiiert, auf mehreren Kontakten basieren, während die Kontaktanordnung, die ignoriert wird, auf einem einzelnen Kontakt basieren kann.
  • 28 zeigt eine illustrative Steueroperation 540. Die Steueroperation 540 kann unter Verwendung eines Steuerfelds, wie dem in 29 gezeigten durchgeführt werden. Die Operation kann bei Block 542 beginnen, wo eine Liste von Eingabefunktionen zur Verfügung gestellt wird. Die Eingabefunktionen können Befehle und Gestenereignisse haben, die mit den Befehlen verbunden sind. Die Befehle können sich auf die Eingabefunktionen beziehen. Wenn die Eingabefunktion z. B. Editieren ist, dann können die Befehle Abbrechen, Rückgängig, Einfügen, Rückwärts Tabulator, Kopieren, Tabulator, Ausschneiden, Wiederherstellen und Alles Anwählen sein. Die Gestenereignisse können Aktionen sein, die durch einen Akkord durchgeführt werden. Die Gestenereignisse können Rotationen umfassen (im Uhrzeigersinn und gegen den Uhrzeigersinn), Verschiebungen als eine Gruppe (hoch, hinunter, rechts, links), Verschiebungen relativ zueinander (gespreizt, geschlossen), Tippen usw. Die Gestenereignisse können mit Befehlen auf eine intuitive Weise verbunden werden. Zum Beispiel kann der Ausschneidebefehl durch Schließen der Finger zueinander ähnlich einer Ausschneideaktion initiiert werden.
  • Weiterhin sind komplementäre Befehle (ausschneiden, einfügen) typischerweise mit komplementären Gestenereignissen (spreizen/schließen) verbunden. In Block 544 kann die Eingabefunktion einem bestimmten Akkord zugeordnet werden. Ein Akkord kann eine Fingeranordnung sein. Die Akkorde können in einer Liste angezeigt werden, so dass der Benutzer einen bestimmten Akkord hervorhebt und dann eine bestimmte Eingabefunktion auswählt. Akkorde können mehreren Eingabefunktionen zugeordnet werden.
  • In Block 544 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Menü von Eingabefunktionen auswählt und dann einen Akkord aus einer Menüliste von Akkorden auswählt (z. B. hebe Eingabefunktion hervor und wähle dann Akkord aus). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zukünftige Operationen gebunden werden (Block 546). In manchen Fällen kann das Akkordmenü eine Angabe der Eingabefunktion umfassen, die ihm zugeordnet ist. In dieser speziellen Ausführungsform können Befehle bereits Gestenereignissen zugeordnet sein.
  • Die 29A bis G sind Diagramme eines Steuerfelds 550 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. 29A zeigt ein grundlegendes Steuerfeld, während die 29B bis 29G mehrere Beispiele einer Steuerfeldimplementierung zeigen.
  • Wie in 29A gezeigt, kann das Steuerfeld 550 eine Gestenabbildungssteuerung 552 in der Form eines herunterziehbaren Fensters umfassen. Wenn ein Benutzer das herunterziehbare Fenster auswählt, können dem Benutzer eine oder mehrere Gestenabbildungsoptionen dargelegt werden. Dem Benutzer kann eine Standardeinstellung dargelegt werden (normalerweise durch den Hersteller gesetzt), oder alternativ kann der Benutzer eine Benutzereinstellung wählen, so dass er seine eigene Gestenabbildung bilden kann. Es kann mehr als eine Benutzerabbildung geben. Zum Beispiel können verschiedene Benutzer unterschiedliche Abbildungen erzeugen. Wenn ein Benutzer das Steuerfeld öffnet, kann er die gewünschte Benutzerabbildung durch Auswählen der Gestenabbildungssteuerung und dann Bewegen durch die Liste an Benutzerabbildungen über eine Hervorhebungsleiste auswählen. Sobald eine gewünschte Abbildung gefunden wird, kann der Benutzer sie einfach hervorheben und dann ein erstes Klicken durchführen, um die gewünschte Gestenabbildung einzustellen. Danach kann der Benutzer ihre Einstellungen ändern.
  • Das Steuerfeld 550 kann auch ein Menü von Eingabefunktionen 554 umfassen, auch in der Form eines Fensters zum Herunterziehen. Wenn ein Benutzer das Fenster zum Herunterziehen auswählt, kann dem Benutzer eine Liste von einer oder mehreren Eingabefunktionen dargestellt werden. Die Eingabefunktionen können z. B. keine, Punkt, Punkt/Klick, scrollen, scrollen und sekundärer Klick, primärer Klick und Ziehen, sekundärer Klick und Ziehen, Fenster bewegen, Freilegen und Instrumententafel, Webbrowseroperationen, Editieroperationen, Dateioperationen und ähnliches umfassen. Um eine der Eingabefunktionen hervorzuheben, kann dem Benutzer eine Hervorhebungsleiste zur Verfügung gestellt werden, die durch die Liste in Übereinstimmung mit den Benutzersteuerungen läuft.
  • Steuerfeld 550 kann auch einen Gestensatzabschnitt 556 umfassen, der Befehle zeigt, die mit der Eingabefunktion assoziiert sind, die hervorgehoben ist und Gestenereignisse, die den Befehlen zugeordnet sind. Der Gestensatzabschnitt kann nur der Rückmeldung dienen, aber er kann auch die Funktionalität des Zuordnens von Befehlen zu Gestenereignissen (oder umgekehrt) umfassen. Obwohl das Fenster stark abgewandelt werden kann, kann das Fenster in der dargestellten Ausführungsform getrennte Felder enthalten, von denen jedes ein Gestenereignis und einen Befehl enthält, der damit assoziiert ist. In dieser Ausführungsform können die Felder in einer 3 × 3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle für jede Eingabefunktion geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn angeordnet sein, Ausbreiten kann gegenüber Zusammenziehen angeordnet sein, Linksschwenk kann gegen über Rechtsschwenk angeordnet sein, Schwenk nach oben kann gegenüber Schwenk nach unten angeordnet sein. Wenn möglich, können komplementäre Befehle mit gegenüberliegenden Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden.
  • Steuerfeld 550 kann auch ein Akkordmenü 558 umfassen. Die Akkorde können übereinander angeordnet sein und sich durch ein Fenster mittels einer Scrollleiste bewegen. Die Akkorde können Textidentifikatoren sowie Akkordidentifikatoren enthalten, die Beispiele zeigen, wie der Akkord zu machen ist. In der dargestellten Ausführungsform kann der Akkordindikator die Form einer Hand haben, wobei abgedunkelte Kreise die Finger abdecken, die verwendet werden, um den Akkord zu machen. Die Akkorde können auch Textidentifikatoren für die Eingabefunktion haben, die dem Akkord zugeordnet ist.
  • In einer Ausführungsform kann der Benutzer, um die Gestenabbildung einzurichten, eine Eingabefunktion hervorheben und dann zum Akkordmenü verschieben. Beim Akkordmenü angekommen, kann der Benutzer einen gewünschten Akkord für diese Eingabefunktion auswählen, indem er die Akkordliste durchläuft, den gewünschten Akkord hervorhebt und dann ein Auswahlereignis, wie z. B. über einen Klick durchführt. Danach kann die Eingabefunktion dem Akkord zugeordnet werden. In manchen Fällen kann, sobald der Benutzer die Eingabefunktion dem Akkord zuordnet, der Eingabefunktionsidentifikator im Akkordmenü zusammen mit dem Akkord untergebracht werden. Weiterhin kann die Eingabefunktion einen Identifikator enthalten, der anzeigt, dass sie zugewiesen wurde. Zum Beispiel kann ein Haken durch die zugewiesene Eingabefunktion platziert werden. Während Operationen kann, wenn ein Benutzer die Fingeranordnung, die im Akkordmenü gezeigt ist, auf der Mehrpunkt Berührungsoberfläche platziert, die Fingeranordnung als der Akkord erkannt werden, und danach kann der Gestensatz, der mit der Eingabefunktion assoziiert ist, die dem Akkord zugewiesen ist, als der primäre oder aktive Gestensatz gesetzt werden.
  • 29B zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Freilegen/Instrumententafeleingabefunktion dem 4-Finger-Akkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Freilegen/Instrumententafeleingabefunktion assoziiert sind, und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Alles Freilegen einleiten, ein Schwenk nach rechts kann Schreibtisch Freilegen einleiten, ein Schwenk nach links kann Anwendungen Freilegen einleiten und ein Schwenk nach unten kann Instrumententafel einleiten.
  • 29C zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion primärer Klick und Ziehen dem 3 Fingerakkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Klick und Ziehen assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in jede Richtung verwendet werden, um ein Objekt zu ziehen und ein Tippen kann verwendet werden, um ein Klicken einzuleiten.
  • 29D zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Dateioperation dem Akkord Daumen + 1 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Dateioperation assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Rotationsschwenk gegen den Uhrzeigersinn verwendet werden, um Öffnen einzuleiten, ein Rotationsschwenk im Uhrzeigersinn kann verwendet werden, um Schließen einzuleiten, Spreizen kann für Neu und "ZUSAMMENZIEHEN" kann für Speichern verwendet werden.
  • 29E zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Editieroperationen dem Akkord Daumen + 2 Finger zuordnen kann. Weiterhin kann der Gestensatz die Kommandos zeigen, die mit der Editieroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Rückgängig einleiten, ein Schwenk nach rechts kann Tabulator einleiten, ein Schwenk nach links kann rückwärts Tabulator Anwendungen einleiten und ein Schwenk nach unten kann Wiederherstellen einleiten. Weiterhin kann ein Rotationsschwenk gegen den Uhrzeigersinn Abbrechen einleiten, ein Rotationsschwenk im Uhrzeigersinn kann Alles Auswählen einleiten, Spreizen kann Einfügen einleiten und Zusammenziehen kann Ausschneiden einleiten. Weiterhin kann ein Tippen Kopieren einleiten.
  • 29F zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Webbrowseroperationseingabefunktion dem Akkord Daumen + 3 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Webbrowseroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Anhalten einleiten, ein Schwenk nach rechts kann Vor einleiten, ein Schwenk nach links kann Rück einleiten, ein Schwenk nach unten kann Neu Laden einleiten. Weiterhin kann ein Schwenk nach links oben Startseite einleiten, ein Schwenk nach rechts oben kann Hervorheben einleiten, ein Schwenk nach links unten kann Suchen einleiten und ein Schwenk nach rechts unten kann Lesezeichen einleiten.
  • 29G zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Zeige Eingabefunktion dem Akkord Daumen + 4 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Zeige Eingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in irgendeine Richtung zum Zeigen verwendet werden.
  • 30 zeigt eine illustrative Steueroperation 580. Die Steueroperation 580 kann unter Verwendung eines Steuerfeldes, wie dem in 29 gezeigten durchgeführt werden. Die Operation kann in Block 582 beginnen, wo eine Liste an Eingabefunktionen zur Verfügung gestellt werden kann. Im Block 584 kann eine Liste an Befehlen zur Verfügung gestellt werden, die mit den Eingabefunktionen assoziiert sind. In Block 586 kann eine Akkordliste zur Verfügung gestellt werden. In Block 588 kann eine Liste von Gestenereignissen zur Verfügung gestellt werden, die mit den Akkorden assoziiert sind. Im Block 590 kann die Eingabefunktion einem Akkord zugeordnet werden (oder umgekehrt). Im Block 592 können die Befehle den Gestenereignissen zugeordnet werden. In einer alternativen Operation kann die Operation 580 umfassen, eine Liste aller zur Verfolgung stehenden Befehle zu liefern, anstatt eine Liste mit einer bestimmten Eingabefunktion assoziiert zu haben. Der Benutzer kann der Eingabefunktion irgendeinen Befehl zuordnen. Auch in einer alternativen Operation kann die Operation umfassen, eine Liste aller zur Verfügung stehender Gestenereignisse zu liefern, anstatt eine Liste mit einem bestimmten Akkord assoziiert zu haben.
  • Unter Bezugnahme auf 29 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Eingabefunktionsmenü auswählt und dann einen Akkord aus einer Akkordmenüliste auswählt. (z. B. Eingabefunktion hervorheben und dann Akkord auswählen). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zukünftige Operationen gebunden werden. In manchen Fällen kann das Akkordmenü eine Anzeige der Eingabefunktion umfassen, die ihm zugeordnet sind. Weiterhin kann der Benutzer Befehle Gestenereignissen zuordnen, indem er die Befehle über eine Geste zieht. Zum Beispiel kann der Benutzer einen bestimmten Befehl auswählen und ziehen und lässt ihn über dem gewünschten Gestenereignis fallen. Danach kann das Gestenereignis Tür zukünftige Operationen gebunden werden.
  • 31 zeigt ein illustratives Gestenabbildungsverfahren 600. Das Abbilden 600 kann bei Block 602 beginnen, wo das System in einen Gestenabbildungsmodus gebracht wird. Sobald es im Gestenabbildungsmodus ist, kann eine Berührung in Block 604 detektiert werden. Danach kann in Block 606 die Anordnung der Kontakte gespeichert werden, die mit der Berührung assoziiert sind. Zum Beispiel kann ein Bild der Kontaktordnung erzeugt werden. Danach kann in Block 608 die Berührung auf ein Gestenereignis hin überwacht werden. Danach kann in Block 610 das Gestenereignis gespeichert werden. Danach kann in Block 612 ein Befehl der Kontaktordnung/dem Gestenereignis zugewiesen werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann, und indem das Gestenereignis durchgeführt wird.
  • 32 zeigt ein illustratives Gestenabbildungsverfahren 620. Das Gestenabbildungsverfahren 620 kann bei Block 622 beginnen, wo ein Befehlsmenü geöffnet werden kann. Das Befehlsmenü kann irgendeines der Menüs sein, die in der Kopfleiste einer Anwendung gefunden werden (z. B. Datei, Bearbeiten, Ansicht, Einfügen, Format, Werkzeuge, usw.). Wenn das Befehlsmenü geöffnet wird, kann eine Befehlsliste angezeigt werden (Block 624). Nach Block 624 kann eine Hervorhebungsleiste über einen Befehl in der Befehlsliste über eine Benutzersteuerung bewegt werden. Danach kann in Block 626 eine Berührung auf einer Berührungsoberfläche detektiert werden, während ein Befehl hervorgehoben ist. Danach kann in Block 628 die Kontaktanordnung, die der Berührung zugeordnet ist, abgebildet und gespeichert werden. Danach kann in Block 630 die Berührung bezüglich eines Gestenereignisses überwacht werden. Danach kann in Block 632 ein Gestenereignis abgebildet und gespeichert werden, wenn es durchgeführt wird. Danach können in Block 634 die anfängliche Kontaktanordnung und die Gestenereignisse dem hervorgehobenen Befehl zugeordnet werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann und indem das Gestenereignis durchgeführt wird.
  • 33 zeigt ein illustratives Gestenrückmeldungsverfahren 640. Das Verfahren 640 kann bei Block 642 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 644 die Kontaktanordnung erkannt werden. Danach kann in Block 646 der Gestensatz basierend mindestens teilweise auf der Kontaktanordnung geladen werden. Danach kann in Block 648 eine Pause während der Berührung detektiert werden (z. B. kein Gestenereignis wird während einer Zeitspanne durchgeführt). Danach kann in Block 650 der Gestensatz angezeigt werden, so dass der Benutzer Befehle und Gestenereignisse, die an ihn gebunden sind, betrachten kann (siehe z. B. 34). Danach kann in Block 652 der Gestensatz von der Anzeige entfernt werden, wenn ein Gestenereignis begonnen wird oder nach einem vorgesetzten Zeitablauf.
  • 34 zeigt ein illustratives Gestenbetrachtungsfenster 660. Ein Gestenbetrachtungsfenster kann ein Gestenmenü sein, das sich öffnet und Informationen darüber enthält, wie ein Gestenereignis durchzuführen ist und welcher Befehl eingeleitet werden wird, wenn das Gestenereignis durchgeführt wird. Der Benutzer kann daher den Gestensatz schnell im Gedächtnis einprägen, bevor er ein Gestenereignis durchführt. Das Gestenfenster 660 kann ein halbdurchlässiges oder undurchsichtiges Fenster sein, das in der Nähe des ersten Berührungspunkts (oder der Pause) und über beliebigen anderen angezeigten Informationen angezeigt wird. Obwohl das Fenster stark abweichen kann, kann in der illustrierten Ausführungsform das Fenster 660 getrennte Felder 662 enthalten, von denen jedes ein Gestenereignis 664 und einen Befehl 667 enthält, der mit ihm assoziiert ist. In dieser Ausführungsform können die Felder in einer 3 × 3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann sich Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn befinden, Spreizen kann sich gegenüber Zusammenziehen befinden, Linksschwenk kann sich gegenüber Rechtsschwenk befinden, Schwenk nach oben kann sich gegenüber Schwenk nach unten befinden. Wenn möglich können komplementäre Befehle mit entgegen gesetzten Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden. Im Fall von Ausschneiden und Einfügen kann z. B. Ausschneiden mit Zusammenziehen assoziiert werden, während Einfügen mit Spreizen assoziiert werden kann. Weiterhin kann ein anderes mit einem Tippen assoziiert werden (dargestellt durch einen Kreis).
  • 35 zeigt ein illustratives Tastaturverfahren 680, das über einen Berührungsbildschirm implementiert ist. Das Verfahren 680 kann bei Block 682 beginnen, wo eine Berührungsbildschirmstastatur aktiviert wird (z. B. angezeigt und bereit zum Empfang von Eingabe). Danach kann in Block 684 die Berührungsoberfläche bezüglich Tasteneingaben überwacht werden (z. B. ein Finger, der auf eine angezeigte Taste tippt). Gleichzeitig kann in Block 686 die Berührungsoberfläche bezüglich wischender Gestenereignisse überwacht werden. Wenn das wischende Gestenereignis ein Rechtsschwenk ist, kann ein Leerzeichenbefehl durchgeführt werden (Blöcke 688 und 690). Wenn das wischende Gestenereignis ein Linksschwenk ist, kann ein Rücktaste-/Löschbefehl durchgeführt werden (Blöcke 692 und 694). Wenn das wischende Gestenereignis ein Schwenk nach unten ist, kann ein Eingabe-/Rücklaufbefehl durchgeführt werden (Blöcke 696 und 698). Wenn das wischende Gestenereignis ein Schwenk nach oben ist, kann ein Seitenumbruchsbefehl durchgeführt werden (Blöcke 700 und 702). Es sollte jedoch bemerkt werden, dass das Verfahren nicht auf diese Befehle beschränkt ist und dass andere Befehle durchgeführt werden können.
  • Mit so vielen Akkordkombinationen, Gestenereignissen, Befehlen zur Auswertung kann es hilfreich sein, Stärke und Schwäche zu isolieren und eine Anleitungstheorie zu entwickeln, welche Akkorde und Gestenereignisse gut zu welchen Befehlen passen. Es wird im Allgemeinen angenommen, dass Langzeitbenutzererfahrung durch Zuordnung der besten Fingerkombinationen mit den häufigsten Befehlen maximiert werden kann. Mittelmäßige Fingerkombinationen sollten nur für weniger häufige Befehle verwendet werden. Wegen subtiler Themen wie etwa Überlagerung ist es jedoch nicht alleine ausreichend, diesem Prinzip zu folgen, um eine großartige Benutzererfahrung zu erzeugen.
  • 36 zeigt einen illustrativen Gestenentwurfsprozess 720. Der Entwurfsprozess 720 umfasst Block 702, wo die einfachsten Akkorde bewertet oder aufgelistet werden. Die Akkorde können z. B. auf der Grundlage von Geschwindigkeit, Verlässlichkeit, Komfort und Benutzerfreundlichkeit, Einfachheit usw. bewertet werden. Dies kann auch auf einer Größe der Berührungsoberfläche beruhen, da kleinere Oberflächen nicht alle Fingerkombinationen aufnehmen können. 37 zeigt ein Beispiel einer Matrix zum Bewerten von Akkorden. Es sollte erkannt werden, dass diese Matrix beispielhaft ist und nicht der Beschränkung dient.
  • Der Entwurfsprozess enthält auch Block 704, wo die Operationshäufigkeit bewertet oder angeordnet wird. Zum Beispiel wie oft ein bestimmter Benutzer oder eine Benutzergruppe einen bestimmten Operationssatz durchführt. Häufigkeitsanordnungen können gemäß den Proportionen von Operationen relativ zueinander (z. B. Websurfen gegenüber Editieren) variieren. 38 zeigt ein Beispiel einer Matrix zum Einordnen von Operationshäufigkeit für ein paar Operationen. Es sollte erkannt werden, dass diese Liste nur als Beispiel dient und nicht zur Abgrenzung, da es noch viel mehr Operationen gibt.
  • Der Entwurfsprozess kann auch Block 706 umfassen, wo die einfachsten Akkorde im Wesentlichen mit den häufigsten Operationen gruppiert oder gepaart werden und die schwierigsten Akkorde im Wesentlichen mit den seltensten Operationen gruppiert oder gepaart werden.
  • Der Entwurfsprozess kann auch Feinabstimmen der Gruppen umfassen. Das Feinabstimmen kann auf vielen Faktoren beruhen, einschließlich komplementäre Befehle, Intuitivität, Überlagerung, sinnvolle Anordnung usw. Wie erkannt werden sollte, kann der Entwurfsprozess nicht so einfach sein, wie das Zusammenführen des einfachsten Akkords mit der häufigsten Operation. In manchen Fällen kann der einfachste Akkord für die häufigste Operation keinen Sinn machen. Als solche können die Akkorde und Operationen verschoben werden, während man immer noch versucht, einfach mit am häufigsten und schwierig mit am wenigsten häufig beizubehalten.
  • 39 zeigt eine illustrative Steueroperation 740. Die Steueroperation kann bei Block 742 starten, wo eine Basisgestenzuordnung zur Verfügung gestellt wird. Die Basisgestenzuordnung kann Gestenvorzugseinstellungen enthalten, die z. B. Akkorde, Befehle, Gestenereignisse usw. enthalten. Nach Block 742 kann die Operation nach Block 744 weitergehen, wo ein erstes Programm aktiv gemacht wird. Das Programm kann z. B. ein Textverarbeitungsprogramm, ein Medienverwaltungsprogramm, ein Tabellenkalkulationsprogramm, ein Medieneditierungsprogramm, ein Zeichenprogramm usw. sein. In Block 746 kann die Basisgestenabbildung angepasst werden, in Übereinstimmung mit dem ersten Programm, während das erste Programm aktiv ist. Zum Beispiel kann das Programm der Basisgestenabbildung anordnen, die Bedeutungen von Akkorden und Gestensätzen für dieses bestimmte Programm zu ändern. Im Block 748 kann ein zweites Programm aktiv gemacht werden. In Block 750 kann die Basisgestenanordnung in Übereinstimmung mit dem zweiten Programm angepasst werden, während das zweite Programm aktiv ist.
  • In einem Beispiel aus 39 kann ein Medieneditierprogramm die Gestenabbildung wie folgt anpassen: ein Finger zum Zeigen, zwei Finger zum Bewegen, Skalieren, Rotieren von Objekten; drei Finger zum primären Ziehen; vier Finger für einen Scrollschwenk; 5 Finger zum Zeigen, während ein Textverarbeitungsprogramm die Gestenabbildung wie folgt anpassen kann: 2 Finger zum Zeigen mit Textcursor, 3 Finger zum Selektieren von Text, 4 Finger zum Blättern, Zeilenanfang und Zeilenende.
  • 40 zeigt eine illustrative Steueroperation 760. Die Steueroperation kann mit einem Gestensatz, wie etwa demjenigen, der mit einem drei Fingerakkord implementiert ist, assoziiert werden. Die Steueroperation kann bei Block 762 beginnen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach rechts detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 764 fortschreiten, wo eine erste Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block 766 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach links detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 770 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach oben detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 772 weitergehen, wo eine dritte Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block 774 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach unten detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 776 weitergehen, wo eine Instrumententafelfunktion eingeleitet wird. Wenn nein, kann die Operation zurück nach 762 weitergehen.
  • 41 zeigt eine illustrative Steueroperation 780. Die Steueroperation kann bei Block 782 starten, wo ein Basisakkord detektiert wird. Der Basisakkord kann z. B. ein drei Finger Akkord sein. Während des Berührungsanschlags wird eine Pause detektiert (Block 784). Danach kann in Block 786 ein Kontextmenü wegen der Pause des Basisakkords geöffnet werden. Danach kann in Block 788 eine Bestimmung gemacht werden, ob ein Gleiten nach oben oder unten entdeckt wird oder nicht. Wenn dem so ist, kann die Operation nach Block 790 weitergehen, wo eine Hervorhebungsleiste durch das Kontextmenü in Übereinstimmung mit der Gleitbewegung bewegt wird. Danach kann in Block 792 eine Bestimmung gemacht werden, ob ein Tippen detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 794 weitergehen, wo die Funktionalität des hervorgehobenen Eintrags implementiert wird.
  • Instrumententafel beherbergt Widgets: Minianwendungen, mit denen man allgemeine Aufgaben durchführen kann und die einem schnellen Zugriff auf Informationen zur Verfügung stellen. Mit einem Wischen kann Instrumententafel erscheinen, vollständig mit Widgets, die einem Benutzer eine Welt von Informationen bringen – Echtzeitwetter, Aktienticker, Fluginformationen und weiteres – sofort. Instrumententafel kann genauso einfach verschwinden, so dass ein Benutzer zu dem was er gerade tat, zurückkehren kann. Instrumententafel wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.
  • Freistellen ermöglicht es Benutzern, sofort auf jedes offene Fenster mit einem einzigen Wischen – und erstaunlichem Stil zuzugreifen, der nie imitiert werden kann. Zeige alle offenen Fenster als Vorschaubilder an, betrachte Fenster der aktuellen Anwendung oder verberge alle Fenster, um schnell eine Datei auf deinem Schreibtisch aufzufinden. Freistellen wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.
  • Die 42 bis 44 zeigen verschiedene Gestenzuordnungen. Jede Figur umfasst vier Überschriften: 1) Hand, 2) # an Fingern (Akkord), 3) Gestenereignis und 4) mit dem Gestenereignis assoziiertes Verhalten oder Aktion.
  • Die 45 bis 48 zeigen verschiedene Gestensätze. In all diesen Figuren umfassen die Gestensätze verschiedene Bewegungen, die durch Pfeile (Wischen, Rotationen, Spreizen/Zusammenziehen) gezeigt werden, und ein oder mehrere Tippen, die durch Kreise gezeigt werden. Sie umfassen auch Befehle, die an die Bewegungen, über denen sie liegen, gebunden sind. Die Gestensätze können auf verschiedene Akkorde in Abhängigkeit der Benutzerbedürfnisse angewendet werden. In einem Beispiel kann der Gestensatz aus 45 auf einen Akkord aus einem Daumen + 1 Finger angewendet werden, der Gestensatz aus 46 kann auf einen Akkord aus einem Daumen + 2 Finger angewendet werden, der Gestensatz aus 47 kann auf einen Akkord aus einem Daumen + 3 Finger angewendet werden und der Gestensatz aus 48 kann aus einem Akkord aus gespreiztem Daumen und 3 Fingern angewendet werden. Es sollte verstanden werden, dass diese Gestensätze sowie die Akkorde als Beispiel angegeben werden und nicht zur Abgrenzung. Zum Beispiel können im Fall der Gestensätze verschiedene Befehle verwendet werden, verschiedene Gestenereignisse können verwendet werden, verschiedene Zuordnungen können gemacht werden, usw.
  • Zusätzliche Ausführungsformen, die sich auf die 8 bis 11 beziehen werden jetzt beschrieben werden.
  • 49 zeigt eine illustrative Gestenoperation 800. Die Operation 800 kann bei Block 802 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block 804 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers entsprechen, der Position des Fingers relativ zur Berührungsoberfläche, ob der Finger sich bewegt oder stationär ist, der Richtung der Fingerbewegungen und ähnlichem. Danach können in Block 806 ein oder mehrere zusätzliche Finger detektiert werden. Zum Beispiel kann neben dem ersten Finger ein unterschiedlicher zweiter Finger detektiert werden. In Block 808 kann der Zustand des einen oder der mehreren zusätzlichen Finger bestimmt werden. Danach können in Block 810 verschiedene Eingabemodi auf der Grundlage eines Zeitverlaufs und von Zuständen des ersten und der zusätzlichen Finger relativ zueinander implementiert werden. Die verschiedenen Eingabemodi können stark abgewandelt werden, und sie können aus jedem derjenigen ausgewählt werden, die hier diskutiert werden oder aus jedem geeignetem oder bekannten Eingabemodus. Ein Beispiel eines Eingabemodus kann ein Zeigemodus oder Ziehmodus sein. Andere Modi können z. B. Scrollen, Schwenken oder ähnliches umfassen.
  • In einem Beispiel kann der Zustand des ersten Fingers stationär oder bewegend umfassen, und der Zustand eines zweiten Fingers kann umfassen, ob der zweite Finger anwesend ist oder nicht. In diesem Beispiel können Zeigeoperationen implementiert werden, wenn nur der erste Finger detektiert wird. Weiterhin können Zeigeoperationen nach Ziehoperationen umgeschaltet werden, wenn der zweite Finger detektiert wird, wenn der erste Finger stationär ist, und Zeigeoperationen werden aufrecht erhalten, wenn der zweite Finger detektiert wird, wenn sich der erste Finger bewegt. Dadurch kann ein Benutzer einfach zwischen Zeige-Ziehoperationen hin und her schalten. Der Benutzer kann z. B. einen Finger über die Berührungsoberfläche bewegen, um ihn oder einen Cursor über einem Dateiordner zu positionieren (z. B. Zeigen), den Finger oder Cursor über dem Dateiordner anhalten, einen zweiten Finger auf die Berührungsoberfläche absetzen, so dass angezeigt wird, dass gewünscht wird, den Dateiordner zu beziehen, und dann seinen ersten Finger auf eine andere Position bewegen, um den Dateiordner zu einer neuen Position zu ziehen. Der Benutzer kann fortfahren, seine Finger und damit den Dateiordner herum zu bewegen, oder einfach den ersten Finger aufleben, um den Dateiordner endgültig innerhalb des Bildschirms anzuordnen.
  • 50 zeigt eine illustrative Gestenoperation 820. Die Operation 820 kann bei Block 822 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block 824 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers, der Position des Fingers relativ zur Berührungsoberfläche, ob sich der Finger bewegt oder stationär ist, der Richtung der Fingerbewegungen oder ähnlichem entsprechen. Danach kann in Block 826 ein erster Eingabemodus mit dem ersten Finger implementiert werden, wenn der erste Finger in einem ersten Zustand ist. In Block 828 kann nach einem Modifizierfingerereignis Ausschau gehalten werden. Das Modifizierfingerereignis kann durch einen anderen als den ersten Finger geliefert werden. Es kann z. B. ein zweiter Finger sein. Das Ereignis kann die Anwesenheit eines zweiten Fingers sein oder es kann eine Art von Gestikulierungsereignis oder ein bestimmter Akkord sein. Danach kann in Block 830 ein zweiter implementiert werden, wenn der erste Finger in einem zweiten Zustand ist und das Modifizierfingerereignis detektiert wird. Das Modifizierereignis kann z. B. die Anwesenheit eines zweiten Fingers neben dem ersten Finger sein. In einem Beispiel ist der erste Modus ein Zeigemodus und der zweite Modus ist ein Ziehmodus. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden.
  • 51 zeigt eine illustrative Gestenoperation 840. Die Operation 840 kann bei Block 842 beginnen, wo ein erster Finger anfangs detektiert wird. Danach kann in Block 844 ein erster Modus, der mit dem ersten Finger assoziiert ist, implementiert werden, wenn der erste Finger bewegt wird. Danach kann in Block 826 ein zweiter Finger detektiert werden, nachdem der erste Finger detektiert wird. In, Block 828 kann der erste Modus auf einen zweiten Modus umgeschaltet werden, wenn der erste Finger stationär ist und die Anwesenheit eines zweiten Fingers detektiert wird. Die Anwesenheit des zweiten Fingers kann Positionsabhängig sein, wie z. B. von einer bestimmten Position auf der Berührungsoberfläche oder einer bestimmten Position relativ zum ersten Finger. In einem Beispiel sollte der zweite Finger in der Nähe des ersten Fingers detektiert werden. Danach kann in Block 830 der zweite Modus mit mindestens dem ersten Finger implementiert werden, wenn der erste Finger bewegt wird. In einem Beispiel kann der erste Modus ein Zeigemodus sein, und der zweite Modus kann ein Ziehmodus sein. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden.
  • 52 zeigt eine illustrative Gestenoperation 860. Die Operation 860 kann bei Block 862 beginnen, wo eine Bestimmung gemacht wird, ob ein einzelner Finger detektiert wird. Der einzelne Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen können die Operationen z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen das Verfahren implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein einzelner Finger detektiert wird, kann die Operation nach Block 864 weitergehen, wo eine Bestimmung gemacht wird, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block 866 Zeigeoperationen mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der Finger nicht bewegt wird, kann in Block 868 eine Bestimmung gemacht werden, ob ein zweiter Finger detektiert wird, während der erste Finger stationär ist. Wenn nein, kann die Operation zurück nach Block 862 weitergehen. Wenn ja, kann die Operation nach Block 870 weitergehen, wo eine Bestimmung gemacht wird, ob der erste Finger bewegt wird, nachdem der zweite Finger detektiert wird. Der zweite Finger kann sich mit dem ersten Finger bewegen müssen oder nicht. In den meisten Fällen kann der zweite Finger aufgehoben werden, so dass er nicht mehr detektiert wird. Wenn der erste Finger nicht bewegt wird, kann die Operation zurück nach Block 868 weitergehen. Wenn der erste Finger bewegt wird, kann die Operation nach Block 872 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden.
  • 53 zeigt eine illustrative Gestenoperation 880. Die Operation 880 kann bei Block 882 beginnen, wo eine Bestimmung gemacht wird, ob ein erster Finger detektiert wird oder nicht. Der erste Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen kann die Operation z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen die Operation implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein Finger detektiert wird, kann die Operation nach Block 884 weitergehen, wo ein Zeigemodus implementiert wird. Danach kann in Block 886 eine Bestimmung gemacht werden, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block 888 nachfolgende Modifizierungsereignisse ignoriert werden. Zum Beispiel können zusätzliche detektierte Finger ignoriert werden und nur die Bewegung des ersten Fingers kann relevant sein. Danach können in Block 890 Zeigeoperationen in Übereinstimmung mit dem sich bewegenden Finger durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der erste Finger stationär ist, kann die Operation nach Block 892 weitergehen, wo nach einem Modifizierungsereignis gesucht wird. Ein Modifizierungsereignis kann z. B. das Hinzufügen eines Fingers sein, oder eine Geste, die durch einen neuen Finger gemacht wird, usw. Danach kann in Block 894 eine Bestimmung gemacht werden, ob ein bestimmtes Modifizierungsereignis detektiert wird oder nicht. Wenn nein, kann die Operation zurück nach Block 886 weitergehen. Wenn ja, kann die Operation nach Block 896 weitergehen, wo das System vom Zeigemodus auf einen Ziehmodus umgeschaltet wird. Wenn der erste Finger bewegt wird, kann die Operation nach Block 898 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden.
  • 54 zeigt ein illustratives elektronisches System 950 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das elektronische System kann mit jeglichen der vorhergehenden Ausführungsformen konfiguriert sein. Das elektronische System 950 kann einem Computersystem entsprechen, wie etwa einem Personalcomputersystem, das Desktops, Laptops, Tablets oder handgehaltene Computer umfasst. Das elektronische System kann auch anderen elektronischen Benutzergeräten entsprechen, wie z. B. handgehaltenen Geräten, einschließlich Mobiltelefonen, PDAs, spezielle Medienspieler und ähnliches. Natürlich kann das elektronische System auf andere elektronische Geräte angewendet werden.
  • Das beispielhafte System 950, das in 54 gezeigt ist, kann einen Prozessor 956 umfassen, der konfiguriert ist, um Anweisungen auszuführen und Operationen auszuführen, die mit dem System 950 assoziiert sind. Zum Beispiel kann der Prozessor 956 unter Verwendung von Anweisungen, die z. B. aus dem Speicher empfangen werden, den Empfang und die Manipulierung von Eingabe- und Ausgabedaten zwischen Komponenten des Computersystems 950 steuern. Der Prozessor 956 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektronischen Komponenten implementiert werden. Zum Beispiel können verschiedene Architekturen für den Prozessor 956 verwendet werden, einschließlich einem dedizierten oder eingebetteten Prozessor, einem Prozessor mit einer einzigen Aufgabe, einem Controller, ASIC usw.
  • In den meisten Fällen kann der Prozessor 956 zusammen mit einem Betriebssystem so arbeiten, dass er Computercode ausführt und Benutzungsdaten produziert. Betriebssysteme sind im Allgemeinen wohl bekannt und werden nicht in größerem Detail beschrieben werden. Das Betriebssystem kann z. B. OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein Betriebssystem mit einer speziellen Aufgabe sein, wie es z. B. für Haushaltscomputergeräte mit beschränktem Zweck verwendet werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks 958 befinden, der operativ mit dem Prozessor 956 verbunden ist. Speicherblock 958 kann einen Platz zum Speichern von Computercode und Daten liefern, die durch das System 950 verwendet werden. Zum Beispiel kann der Speicherplatz 958 Nur-Lese Speicher (Read-Only Memory, ROM) umfassen, Lese-und-Schreibspeicher (Random-Access Memory, RAM), Festplattenlaufwerk und/oder ähnliches. Die Informationen können sich auf einem entfernbaren Speichermedium befinden oder auf das System 950 geladen oder installiert werden, wenn benötigt. Entfernbare Speichermedien umfassen z. B. CD-ROM, PC-CARD, Speicherkarte, Floppy Disk, Magnetband und eine Netzwerkkomponente.
  • Das System 950 kann auch eine Anzeigevorrichtung 968 umfassen, die operativ mit dem Prozessor 956 verbunden ist. Die Anzeigevorrichtung 968 kann eine Flüssigkristallanzeige (liquid crystal display, LCD) (z. B. aktive Matrix, passive Matrix und ähnliches sein). Alternativ kann die Anzeigevorrichtung 968 ein Monitor sein, wie etwa eine Monochromanzeige, Farbgraphikadapter (color graphics adapter, CGA) Anzeige, verbesserte Graphikadapter (enhanced graphics adapter, EGA) Anzeige, variable Graphikfeldanzeige (variable-graphics-array, VGA), Super VGA Anzeige, Bildröhre (cathode ray tube, CRT) und ähnliches. Die Anzeigevorrichtung kann auch einer Plasmaanzeige oder einer Anzeige entsprechen, die mit elektronischen Tinten implementiert wird.
  • Die Anzeigevorrichtung 968 kann konfiguriert sein, eine graphische Benutzerschnittstelle (graphical user interface, GUI) 969 anzuzeigen, die eine einfache Benutzerschnittstelle zwischen dem Benutzer des Systems und dem Betriebssystem oder darauf laufende Anwendung zur Verfügung stellt. Im Allgemeinen repräsentiert die GUI 969 Programme, Dateien und Betriebsoptionen mit graphischen Bildern. Die graphischen Bilder können Fenster, Felder, Dialogfelder, Menüs, Icons, Schalter, Cursor, Bildlaufleisten usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein oder sie können dynamisch erzeugt werden, um bestimmten Aktionen zu dienen, die durch einen Benutzer vorgenommen werden. Während der Operation kann der Benutzer verschiedene graphische Bilder auswählen und aktivieren, um Funktionen und Aufgaben einzuleiten, die damit assoziiert sind. Zum Beispiel kann ein Benutzer eine Schaltfläche selektieren, die ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Icon, das ein bestimmtes Programm startet. Die GUI 969 kann darüber hinaus oder alternativ Informationen, etwa nicht-interaktiven Text und Graphiken für den Benutzer auf der Anzeigevorrichtung 968 anzeigen.
  • Das System 950 kann auch ein oder mehrere Eingabevorrichtungen 970 umfassen, die operativ mit dem Prozessor 956 verbunden sind. Die Eingabevorrichtungen 970 können konfiguriert sein, um Daten von der Außenwelt in das System 950 zu übertragen. Die Eingabevorrichtungen 970 können in das System 950 integriert sein oder sie können getrennte Komponenten (z. B. Peripherievorrichtungen) sein. In manchen Fällen können die Eingabevorrichtungen 970 mit dem System 950 durch Drahtverbindungen (Kabel/Ports) verbunden sein. In anderen Fällen können die Eingabevorrichtungen 970 mit dem System 950 durch drahtlose Verbindungen verbunden sein. Die Datenverbindung kann z. B. PS/2, USB, IR, RF, Bluetooth oder ähnlichem entsprechen.
  • Die Eingabevorrichtung(en) 970 kann/können z. B. verwendet werden, um Nachverfolgung durchzuführen und Anwahlen im Bezug auf die GUI 969 auf der Anzeige 968 zu machen. Die Eingabevorrichtung 970 kann auch verwendet werden, um Befehle in das System 950 abzugeben.
  • In einer Ausführungsform können die Eingabevorrichtungen 970 eine berührungsempfindliche Vorrichtung umfassen, die konfiguriert ist, um Eingabe von einer Berührung des Benutzers zu empfangen und diese Informationen an den Prozessor 56 zu senden. Die berührungsempfindliche Vorrichtung kann z. B. einem Berührungsfeld, einem Berührungsbildschirm und/oder einem berührungsempfindlichen Gehäuse entsprechen.
  • In vielen Fällen kann die berührungsempfindliche Vorrichtung Berührungen (oder Beinahe-Berührungen) erkennen sowie die Position und die Größenordnung der Berührungen auf der berührungsempfindlichen Oberfläche. Die Berührungsabtastungsmittel können die Berührungen an den Prozessor 956 berichten und der Prozessor 956 kann die Berührungen in Übereinstimmung mit seiner Programmierung interpretieren. Zum Beispiel kann der Prozessor 956 eine Aufgabe in Übereinstimmung mit einer bestimmten Berührung initiieren. Ein dedizierter Prozessor kann verwendet werden, um die Berührungen lokal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. Die berührungsempfindliche Vorrichtung kann auf Abtasttechnologien beruhen – einschließlich, aber nicht beschränkt auf – kapazitives Abtasten, Widerstandsabtasten, Oberflächen akustisches Wellenabtasten, Druckabtasten, optisches Abtasten und/oder ähnliches.
  • Weiterhin können die berührungsempfindlichen Mittel auf Einzelpunktabtastung oder Mehrpunktabtastung beruhen. Einzelpunktabtastung ist nur in der Lage, eine einzige Berührung zu unterscheiden, während Mehrpunktabtastung in der Lage ist, mehrere Berührungen zu unterscheiden, die zur gleichen Zeit auftreten. Alternativ oder zusätzlich können Näheabtastungsvorrichtungen verwendet werden. Näheabtastungsvorrichtungen sind in der Lage, Objekte im Raum anstelle auf einer Berührungsoberfläche abzutasten.
  • In einer Ausführungsform können die Eingabevorrichtungen 970 eine Mehrpunkteingabevorrichtung umfassen. Mehrpunkteingabevorrichtungen haben Vorteile gegenüber herkömmlichen Einzelpunktvorrichtungen dahingehend, dass sie mehr als ein Objekt (Finger) gleichzeitig unterscheiden können. Als ein Beispiel wird eine Mehrpunktvorrichtung, die hier verwendet wird, detaillierter in den U.S. Patentanmeldungen Nr. 10/840,862 und 11/015,434 beschrieben, die beide hier per Verweis mit eingebunden werden.
  • In Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung kann das System 950 so entworfen werden, dass es Gesten 985 erkennt, die auf eine oder mehrere Eingabevorrichtungen 970 (insbesondere Berührungsvorrichtungen) angewendet werden und Aspekte des Systems 950 auf der Grundlage der Gesten 985 steuert. Wie vorher bemerkt kann eine Geste als eine stilisierte Interaktion mit einer Eingabevorrichtung definiert werden, die auf eine oder mehrere bestimmte Computeroperationen abgebildet wird. Die Gesten 985 können durch verschiedene Hand- und insbesondere Fingerbewegungen gemacht werden. Alternativ oder zusätzlich können die Gesten mit einem Stift gemacht werden. In all diesen Fällen kann mindestens eine der Eingabevorrichtungen 970 wie etwa eine Berührungsvorrichtung, die Gesten 985 empfangen und der Prozessor 956 kann Instruktionen ausführen und Operationen ausführen, die mit den Gesten 985 assoziiert sind. Darüber hinaus kann der Speicherblock 958 ein Gestenbetriebsprogramm 988 enthalten, das Teil eines Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm 988 kann einen Satz an Anweisungen enthalten, die das Auftreten von Gesten 985 erkennen und einen oder mehrere Software agenten über die Gesten 985 informieren und/oder welche Aktion(en) in Antwort auf die Gesten 985 zu unternehmen sind.
  • Wenn ein Benutzer eine oder mehrere Gesten durchführt, kann das Eingabegerät 970 Gesteninformationen an den Prozessor 956 weitergeben. Unter Verwendung von Anweisungen vom Speicher 958 und insbesondere des Gestenbetriebsprogramms 988 kann der Prozessor 956 die Gesten 985 interpretieren und verschiedene Komponenten des Systems 950, wie etwa den Speicher 958, eine Anzeige 968 auf der Grundlage der Gesten 985 steuern. Die Gesten 985 können als Befehle zum Durchführen von Aktionen in Anwendungen, die im Speicher 958 gespeichert sind, identifiziert werden, die GUI Objekte modifizieren, die auf der Anzeige 968 angezeigt werden, Daten modifizieren, die im Speicher 958 gespeichert sind und/oder Aktionen in E/A Geräten durchführen. Zum Beispiel kämmen die Befehle mit Zoomen, Schwenken, Scrollen, Blättern, Rotieren, Größenverändern und ähnlichem assoziiert sein. Als weitere Beispiele können die Befehle auch mit dem Starten eines bestimmten Programms, Öffnen einer Datei oder eines bestimmten Dokuments, Betrachten eines Menüs, Vornehmens einer Auswahl, Ausführen von Anweisungen, Einloggen in ein Computersystem, autorisierten Individuen Zugang zu beschränkten Gebieten des Computersystems erlauben, Laden eines Benutzerprofils, das mit einer durch den Benutzer bevorzugten Anordnung auf dem Computerschreibtisch assoziiert ist und/oder ähnlichem assoziiert sein.
  • In einer Ausführungsform kann die Anzahl an Fingern in Kontakt mit der Eingabevorrichtung einen Eingabemodus anzeigen. Zum Beispiel kann eine einzelne Berührung, wie z. B. durch einen einzelnen Finger den Wunsch anzeigen, Nachverfolgung durchzuführen, d. h. Zeiger- oder Cursorbewegungen oder Auswahlen, wohingegen mehrere Berührungen, wie z. B. durch eine Gruppe an Finger, den Wunsch anzeigen kann, andere Gesten durchzuführen. Die Anzahl an Finger zum Implementieren von Gesten kann stark abgewandelt werden. Zum Beispiel können zwei Finger einen ersten Eingabemodus anzeigen, drei Finger können einen dritten Eingabemodus anzeigen usw. Alternativ kann jede Anzahl von Fingern, d. h. mehr als einer für denselben Eingabemodus verwendet werden, der eine oder mehrere Gestensteuerungen umfassen kann. Die Ausrichtung der Finger kann ähnlich verwendet werden, um den gewünschten Modus zu bezeichnen. Das Profil der Finger kann detektiert werden, um verschiedene modale Operationen auf der Grundlage dessen zu ermöglichen, ob der Benutzer z. B. seinen Daumen oder Zeigefinger verwendet hat.
  • In einer bestimmten Ausführungsform kann ein einzelner Finger Nachverfolgung (oder Auswahl) einleiten und zwei oder mehr Finger in großer Nähe zueinander können scrollen oder schwenken einleiten. Zwei Finger können einfaches hin und her schalten zwischen einem und zwei Fingern liefern, d. h. der Benutzer kann zwischen Modi sehr einfach wechseln, indem er einfach einen zusätzlichen Finger anhebt oder platziert. Das hat den Vorteil, intuitiver zu sein, als andere Formen des Modus hin und her Schaltens. Während Nachverfolgung kann Cursorbewegung durch den Benutzer gesteuert werden, der einen einzelnen Finger auf der Berührungssensitiven Oberfläche einer berührungssensitiven Vorrichtung bewegt. Die Sensoranordnung der berührungsempfindlichen Vorrichtung kann die Fingerbewegung interpretieren und Signale zum Erzeugen entsprechender Bewegung des Cursors auf der Anzeige erzeugen. Während Scrollen kann Bildschirmbewegung durch den Benutzer gesteuert werden, der duale Finger auf der berührungsempfindlichen Oberfläche oder der berührungsempfindlichen Vorrichtung bewegt. Wenn die kombinierten Finger in die vertikale Richtung bewegt werden, kann die Bewegung als ein vertikales Scrollereignis interpretiert werden und wenn die kombinierten Finger in die horizontale Richtung bewegt werden, kann die Bewegung als ein horizontales Scrollereignis interpretiert werden. Das Gleiche kann für Schwenken gesagt werden, obwohl Schwenken in alle Richtungen anstelle nur der horizontalen und vertikalen Richtung eintreten kann.
  • Die Ausführungsformen, die hier beschrieben werden, können durch Hardware, Software oder einer Kombination von Hardware und Software implementiert werden. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium ausgeführt sein. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, die Daten speichern kann, die danach durch ein Com putersystem gelesen werden können. Beispiele für das computerlesbare Medium umfassen Nur-Lese Speicher, Lese-und-Schreib Speicher, CD-ROMS, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkverbundene Computersysteme verteilt werden, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.
  • Obwohl z. B. die Erfindung primär auf Berührungsvorrichtungen gerichtet ist, sollte bemerkt werden, dass die Erfindung auch mit Näheabtastungsvorrichtungen implementiert werden kann. Darüber hinaus können Verfahren implementiert werden, um automatisch Gestenpräferenzen zwischen verschiedenen Vorrichtungen zu synchronisieren. Wenn z. B. eine Palm Vorrichtung mit einem Host Computer verbunden wird. Es sollte auch bemerkt werden, dass es viele alternative Wege der Implementierung der Verfahren und Geräte gibt. Obwohl z. B. die Erfindung primär auf ein System gerichtet ist, das mit Mehrpunkt-Abtastvorrichtungen assoziiert ist, sollte bemerkt werden, dass es auch auf Einzelpunktabtastvorrichtungen gerichtet werden kann.

Claims (20)

  1. Elektronisches System umfassend: eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt; ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.
  2. Elektronisches System wie in Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine berührungsempfindliche Vorrichtung ist.
  3. Elektronisches System wie in Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine Näheabtastvorrichtung ist.
  4. Elektronisches System wie in Anspruch 1, wobei das Gestenmodul durch Hardware, Software oder eine Kombination aus Hardware und Software implementiert ist.
  5. Elektronisches System wie in Anspruch 1, wobei das elektronische System mit einem Computersystem assoziiert ist, einschließlich Desktops, Laptops, Tabletts und handgehaltene Computer.
  6. Elektronisches System wie in Anspruch 1, wobei das elektronische System mit handgehaltenen elektronischen Benutzergeräten einschließlich Mobiltelefonen, PDAs oder dedizierten Medienspielern assoziiert ist.
  7. Elektronisches System wie in Anspruch 1, wobei der Gestensatz auch durch einen oder mehrere Faktoren bestimmt wird, einschließlich Position der Eingabeanordnung innerhalb des Abtastgebiets, einer offenen Anwendung, eines Zustands der offenen Anwendung, Eingabefunktionalität oder zusätzlichen Eingabecharakteristiken.
  8. Elektronisches System wie in Anspruch 1, wobei die Eingabeaktionen Zustandsbefehle sind.
  9. Elektronisches System wie in Anspruch 1, wobei die Eingabeaktionen manipulative Befehle sind.
  10. Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse durch die Eingabeanordnung durchgeführt werden.
  11. Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse durch eine Untermenge der Eingabeanordnung durchgeführt werden.
  12. Elektronisches System wie in Anspruch 1, wobei das Bestimmen des Gestensatzes erkennen einer bestimmten Eingabeanordnung umfasst und wobei Überwachen der bestimmten Eingabeanordnung Erkennen von Gestenereignissen umfasst, die mit dem Gestensatz assoziiert sind.
  13. Elektronisches System wie in Anspruch 12, wobei Erkennen der Gestenereignisse Analysieren von Charakteristiken einer jeden Eingabe der Eingabeanordnung umfasst, Identifizieren eines bestimmten Musters, das mit der Eingabeanordnung assoziiert ist und Bezug nehmen auf den Gestensatz, um zu sehen, ob das bestimmte Muster mit einem Gestenereignis übereinstimmt, das mit dem Gestensatz assoziiert ist.
  14. Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse mit Berührungen assoziiert sind, die aus Bewegungen, Tippen, Druck und Verweilen ausgewählt werden können.
  15. Elektronisches System wie in Anspruch 14, wobei Bewegungen aus Gleiten, Wischen, Schnalzen und Rotation ausgewählt werden.
  16. Elektronisches System wie in Anspruch 14, wobei Bewegungen Zusammenziehen oder Ausdehnen zwischen zwei oder mehr Eingaben sind.
  17. Elektronisches System wie in Anspruch 14, wobei Tippen aus einem halben Tippen, ganzen Tippen, mehreren Tippen, schnellen Tippen oder langsamen Tippen ausgewählt werden.
  18. Elektronisches System wie in Anspruch 14, wobei Druck mit hartem und leichtem Drücken assoziiert wird.
  19. Elektronisches System wie in Anspruch 14, wobei Verweilen mit einer langen oder kurzen stationären Pause assoziiert ist.
  20. Elektronisches System wie in Anspruch 14, wobei der Gestensatz aus einer Matrix aus verschiedenen Gestenereignissen und verschiedenen Befehlen besteht.
DE202008001338U 2007-01-30 2008-01-30 Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung Expired - Lifetime DE202008001338U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/700,636 2007-01-30
US11/700,636 US9292111B2 (en) 1998-01-26 2007-01-31 Gesturing with a multipoint sensing device

Publications (1)

Publication Number Publication Date
DE202008001338U1 true DE202008001338U1 (de) 2008-07-10

Family

ID=39247182

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202008001338U Expired - Lifetime DE202008001338U1 (de) 2007-01-30 2008-01-30 Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung

Country Status (9)

Country Link
US (1) US9292111B2 (de)
EP (1) EP2115560A2 (de)
JP (1) JP2010517197A (de)
CN (1) CN101636711A (de)
AU (2) AU2008210864A1 (de)
DE (1) DE202008001338U1 (de)
HK (1) HK1109023A2 (de)
TW (2) TWM350737U (de)
WO (1) WO2008094791A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008051051A1 (de) * 2008-09-03 2010-03-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von Information in einem Fahrzeug
WO2013092288A1 (de) 2011-12-22 2013-06-27 Bauhaus-Universität Weimar Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
DE102014111749A1 (de) * 2014-08-18 2016-02-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum Steuern eines technischen Gerätes

Families Citing this family (874)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US6610917B2 (en) * 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7093201B2 (en) * 2001-09-06 2006-08-15 Danger, Inc. Loop menu navigation apparatus and method
US8095879B2 (en) * 2002-12-10 2012-01-10 Neonode Inc. User interface for mobile handheld computer unit
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
AU2003213780B2 (en) * 2002-03-08 2008-03-13 Quantum Interface, Llc Electric device control apparatus
US7958455B2 (en) * 2002-08-01 2011-06-07 Apple Inc. Mode activated scrolling
US8659565B2 (en) 2010-10-01 2014-02-25 Z124 Smartpad orientation
US9552141B2 (en) * 2004-06-21 2017-01-24 Apple Inc. Methods and apparatuses for operating a data processing system
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7561146B1 (en) 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US7761814B2 (en) * 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8139028B2 (en) * 2006-02-01 2012-03-20 Synaptics Incorporated Proximity sensor and method for indicating extended interface results
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7581186B2 (en) * 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US8736557B2 (en) 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US7856605B2 (en) * 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8607167B2 (en) * 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8612857B2 (en) * 2007-01-08 2013-12-17 Apple Inc. Monitor configuration for media device
US8607144B2 (en) * 2007-01-08 2013-12-10 Apple Inc. Monitor configuration for media device
KR100894146B1 (ko) * 2007-02-03 2009-04-22 엘지전자 주식회사 이동통신 단말기 및 그 동작 제어방법
KR101426718B1 (ko) * 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
US20080229255A1 (en) * 2007-03-15 2008-09-18 Nokia Corporation Apparatus, method and system for gesture detection
KR101380004B1 (ko) * 2007-03-23 2014-04-02 엘지전자 주식회사 전자기기 및 이를 이용한 어플리케이션의 실행방법
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
WO2008134452A2 (en) * 2007-04-24 2008-11-06 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US8185839B2 (en) * 2007-06-09 2012-05-22 Apple Inc. Browsing or searching user interfaces and other aspects
US8201096B2 (en) * 2007-06-09 2012-06-12 Apple Inc. Browsing or searching user interfaces and other aspects
US8350815B2 (en) * 2007-06-20 2013-01-08 Sony Mobile Communications Portable communication device including touch input with scrolling function
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8171432B2 (en) * 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8127254B2 (en) * 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
KR20090029138A (ko) * 2007-09-17 2009-03-20 삼성전자주식회사 동작에 의한 사용자 명령 입력 방법 및 이를 적용한멀티미디어 기기
US9965067B2 (en) 2007-09-19 2018-05-08 T1V, Inc. Multimedia, multiuser system and associated methods
US9953392B2 (en) 2007-09-19 2018-04-24 T1V, Inc. Multimedia system and associated methods
US20130342489A1 (en) * 2008-08-13 2013-12-26 Michael R. Feldman Multimedia, multiuser system and associated methods
US7486386B1 (en) 2007-09-21 2009-02-03 Silison Laboratories Inc. Optical reflectance proximity sensor
JP2009093291A (ja) * 2007-10-04 2009-04-30 Toshiba Corp ジェスチャー判定装置及び方法
US20090100383A1 (en) * 2007-10-16 2009-04-16 Microsoft Corporation Predictive gesturing in graphical user interface
US9274698B2 (en) 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8839123B2 (en) * 2007-11-19 2014-09-16 Red Hat, Inc. Generating a visual user interface
KR101413473B1 (ko) * 2007-11-20 2014-07-01 엘지전자 주식회사 이동 단말기 및 그의 키 입력 방법
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
KR101456570B1 (ko) * 2007-12-21 2014-10-31 엘지전자 주식회사 디지털 이퀄라이저를 구비한 이동 단말기 및 그 제어방법
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8230360B2 (en) * 2008-01-04 2012-07-24 Apple Inc. User interface for selection from media collection
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
KR20090077480A (ko) * 2008-01-11 2009-07-15 삼성전자주식회사 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기
US8555193B2 (en) * 2008-01-17 2013-10-08 Google Inc. System for intelligent automated layout and management of interactive windows
US20090187842A1 (en) * 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
KR101224588B1 (ko) * 2008-01-24 2013-01-22 삼성전자주식회사 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
KR20090085470A (ko) * 2008-02-04 2009-08-07 삼성전자주식회사 아이템 또는 바탕화면에서 복수의 터치방식을 감지하는터치 ui 제공방법 및 이를 적용한 멀티미디어 기기
US8446373B2 (en) * 2008-02-08 2013-05-21 Synaptics Incorporated Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US8717305B2 (en) * 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8645827B2 (en) * 2008-03-04 2014-02-04 Apple Inc. Touch event model
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US20090243998A1 (en) * 2008-03-28 2009-10-01 Nokia Corporation Apparatus, method and computer program product for providing an input gesture indicator
US20110012848A1 (en) * 2008-04-03 2011-01-20 Dong Li Methods and apparatus for operating a multi-object touch handheld device with touch sensitive display
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
DE102008017716A1 (de) * 2008-04-07 2009-10-08 Volkswagen Ag Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug sowie Verfahren zum Betreiben einer solchen
US9256342B2 (en) 2008-04-10 2016-02-09 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US10642364B2 (en) * 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US20090295746A1 (en) * 2008-04-29 2009-12-03 Davidson Philip L Event registration and dispatch system and method for multi-point controls
US20100177053A2 (en) * 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
JP2009276829A (ja) * 2008-05-12 2009-11-26 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
KR100914438B1 (ko) * 2008-05-20 2009-08-28 엘지전자 주식회사 터치 디바이스를 구비한 전자 기기와 그 기능 실행 방법
JP5164675B2 (ja) * 2008-06-04 2013-03-21 キヤノン株式会社 ユーザインターフェースの制御方法及び情報処理装置及びプログラム
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
US20090327974A1 (en) * 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control
US8504946B2 (en) * 2008-06-27 2013-08-06 Apple Inc. Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document
US8446372B2 (en) * 2008-07-09 2013-05-21 Lenovo (Singapore) Pte. Ltd. Apparatus, system, and method for automated touchpad adjustments
US8159455B2 (en) * 2008-07-18 2012-04-17 Apple Inc. Methods and apparatus for processing combinations of kinematical inputs
US8390577B2 (en) * 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
JP4957750B2 (ja) * 2008-07-31 2012-06-20 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
WO2010016065A1 (en) * 2008-08-08 2010-02-11 Moonsun Io Ltd. Method and device of stroke based user input
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
EP2342642A1 (de) * 2008-09-04 2011-07-13 Extreme Reality Ltd. Verfahren, system und software zur bereitstellung einer auf bildsensoren basierenden mensch-maschine-schnittstelle
JPWO2010029619A1 (ja) * 2008-09-10 2012-02-02 富士通東芝モバイルコミュニケーションズ株式会社 携帯端末
US20100070931A1 (en) * 2008-09-15 2010-03-18 Sony Ericsson Mobile Communications Ab Method and apparatus for selecting an object
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
MX2011003069A (es) * 2008-09-24 2011-04-19 Koninkl Philips Electronics Nv Interfaz de usuario para dispositivo sensible de toque de multiples puntos.
US9223430B2 (en) * 2008-09-26 2015-12-29 Hewlett-Packard Development Company Distributing touch data
US20100083108A1 (en) * 2008-09-26 2010-04-01 Research In Motion Limited Touch-screen device having soft escape key
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
US20100087169A1 (en) * 2008-10-02 2010-04-08 Microsoft Corporation Threading together messages with multiple common participants
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US8446389B2 (en) * 2008-10-15 2013-05-21 Lenovo (Singapore) Pte. Ltd Techniques for creating a virtual touchscreen
US8174504B2 (en) * 2008-10-21 2012-05-08 Synaptics Incorporated Input device and method for adjusting a parameter of an electronic system
US20100105441A1 (en) * 2008-10-23 2010-04-29 Chad Aron Voss Display Size of Representations of Content
US8411046B2 (en) 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US20100105424A1 (en) * 2008-10-23 2010-04-29 Smuga Michael A Mobile Communications Device User Interface
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US8385952B2 (en) * 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US8525776B2 (en) * 2008-10-27 2013-09-03 Lenovo (Singapore) Pte. Ltd Techniques for controlling operation of a device with a virtual touchscreen
JP5684136B2 (ja) * 2008-10-28 2015-03-11 サーク・コーポレーション 多重接触エリア回転ジェスチャ認識方法
KR101569176B1 (ko) * 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
WO2010050537A1 (ja) * 2008-10-30 2010-05-06 日本電気株式会社 携帯端末装置、データ操作処理方法及びデータ操作処理プログラム
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
US8502785B2 (en) * 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
KR101027566B1 (ko) * 2008-11-17 2011-04-06 (주)메디슨 초음파 진단기 및 초음파 진단기에서의 명령 신호 생성 방법
CN102227704B (zh) * 2008-11-28 2014-09-03 创新科技有限公司 用于控制声音再现装置的装置和方法
SE533704C2 (sv) 2008-12-05 2010-12-07 Flatfrog Lab Ab Pekkänslig apparat och förfarande för drivning av densamma
US8294047B2 (en) 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
US8660300B2 (en) * 2008-12-12 2014-02-25 Silicon Laboratories Inc. Apparatus and method for optical gesture recognition
DE112008004156B4 (de) * 2008-12-15 2021-06-24 Hewlett-Packard Development Company, L.P. System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
TWI474226B (zh) * 2008-12-17 2015-02-21 Htc Corp 可攜式通訊裝置及其調整複數觸控訊號之方法
JP2010157039A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
JP2010157038A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
CN102272699B (zh) 2008-12-29 2018-06-12 惠普开发有限公司 手势检测分区
KR101021857B1 (ko) * 2008-12-30 2011-03-17 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
US8957865B2 (en) * 2009-01-05 2015-02-17 Apple Inc. Device, method, and graphical user interface for manipulating a user interface object
US10019081B2 (en) * 2009-01-15 2018-07-10 International Business Machines Corporation Functionality switching in pointer input devices
US7870496B1 (en) 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US20140160030A1 (en) * 2009-02-09 2014-06-12 Cypress Semiconductor Corporation Sensor system and method for mapping and creating gestures
TWM361674U (en) * 2009-02-19 2009-07-21 Sentelic Corp Touch control module
JP4775459B2 (ja) * 2009-02-27 2011-09-21 株式会社デンソー 電子機器及び情報処理システム
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US9846533B2 (en) 2009-03-16 2017-12-19 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9311112B2 (en) * 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8238876B2 (en) 2009-03-30 2012-08-07 Microsoft Corporation Notifications
TWI395124B (zh) * 2009-04-02 2013-05-01 Mstar Semiconductor Inc 數位化裝置、數位轉換方法及電容式觸控面板裝置
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
KR101593598B1 (ko) * 2009-04-03 2016-02-12 삼성전자주식회사 휴대단말에서 제스처를 이용한 기능 실행 방법
US9258402B2 (en) * 2009-04-14 2016-02-09 Qualcomm Incorporated System and method for controlling mobile devices
KR101537706B1 (ko) * 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101588730B1 (ko) * 2009-04-21 2016-01-26 엘지전자 주식회사 이동 단말기 및 이것의 인스턴트 메시징 서비스를 이용한 대화 방법
TWI497357B (zh) * 2009-04-23 2015-08-21 Waltop Int Corp 多點觸控板控制方法
US8633904B2 (en) 2009-04-24 2014-01-21 Cypress Semiconductor Corporation Touch identification for multi-touch technology
TWI469019B (zh) * 2009-04-30 2015-01-11 Chimei Innolux Corp 電容式觸控螢幕省電裝置及其方法與電容式觸控螢幕
TW201040823A (en) * 2009-05-11 2010-11-16 Au Optronics Corp Multi-touch method for resistive touch panel
US8355007B2 (en) * 2009-05-11 2013-01-15 Adobe Systems Incorporated Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
WO2010131122A2 (en) * 2009-05-13 2010-11-18 France Telecom User interface to provide enhanced control of an application program
US20100295798A1 (en) 2009-05-21 2010-11-25 Sony Computer Entertainment America Inc. Hand-held device with ancillary touch activated zoom
US8269736B2 (en) * 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
KR101564222B1 (ko) * 2009-05-26 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US8581856B2 (en) * 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20110087974A1 (en) * 2009-05-28 2011-04-14 Kulas Charles J User interface controls including capturing user mood in response to a user cue
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20100309140A1 (en) * 2009-06-05 2010-12-09 Microsoft Corporation Controlling touch input modes
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US8681106B2 (en) 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US20120327009A1 (en) * 2009-06-07 2012-12-27 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8464182B2 (en) * 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
US8717311B2 (en) * 2009-06-19 2014-05-06 Blackberry Limited Portable electronic device including touch-sensitive display and method of determining when to turn off the touch sensitive display
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
JP2011014044A (ja) * 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US9182854B2 (en) * 2009-07-08 2015-11-10 Microsoft Technology Licensing, Llc System and method for multi-touch interactions with a touch sensitive screen
US8610744B2 (en) 2009-07-10 2013-12-17 Adobe Systems Incorporated Methods and apparatus for natural media painting using proximity-based tablet stylus gestures
JP2011028366A (ja) 2009-07-22 2011-02-10 Sony Corp 操作制御装置および操作制御方法
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
US9563350B2 (en) * 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
KR100984817B1 (ko) * 2009-08-19 2010-10-01 주식회사 컴퍼니원헌드레드 이동통신 단말기의 터치스크린을 이용한 사용자 인터페이스 방법
EP2472374B1 (de) * 2009-08-24 2019-03-20 Samsung Electronics Co., Ltd. Verfahren zur bereitstellung einer benutzerschnittstelle
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2011059820A (ja) * 2009-09-07 2011-03-24 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US9176962B2 (en) 2009-09-07 2015-11-03 Apple Inc. Digital media asset browsing with audio cues
CN101655771B (zh) * 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 多触点字符输入方法及系统
US20110057886A1 (en) * 2009-09-10 2011-03-10 Oliver Ng Dynamic sizing of identifier on a touch-sensitive display
KR101629645B1 (ko) * 2009-09-18 2016-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작방법
EP2480957B1 (de) * 2009-09-22 2017-08-09 Apple Inc. Einrichtung, verfahren und grafische benutzeroberfläche zum manipulieren von benutzeroberflächenobjekten
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
AU2010297695A1 (en) * 2009-09-23 2012-05-03 Dingnan Han Method and interface for man-machine interaction
US8799826B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8766928B2 (en) * 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US20110078626A1 (en) * 2009-09-28 2011-03-31 William Bachman Contextual Presentation of Digital Media Asset Collections
CN102033642B (zh) * 2009-09-29 2012-10-10 联想(北京)有限公司 一种手势识别的方法及电子设备
TW201112074A (en) * 2009-09-30 2011-04-01 Higgstec Inc Touch gesture detecting method of a touch panel
TW201112075A (en) * 2009-09-30 2011-04-01 Higgstec Inc Screen menu instruction generating method of a touch screen
DE102009043719A1 (de) * 2009-10-01 2011-04-07 Deutsche Telekom Ag Verfahren zur Befehlseingabe auf einer berührungssensitiven Oberfläche
US8078359B2 (en) * 2009-10-05 2011-12-13 Tesla Motors, Inc. User configurable vehicle user interface
US9079498B2 (en) * 2009-10-05 2015-07-14 Tesla Motors, Inc. Morphing vehicle user interface
US8818624B2 (en) * 2009-10-05 2014-08-26 Tesla Motors, Inc. Adaptive soft buttons for a vehicle user interface
WO2011043422A1 (ja) * 2009-10-09 2011-04-14 日本電気株式会社 携帯機器及びそのセキュリティロック制御方法,プログラム
US8924893B2 (en) 2009-10-14 2014-12-30 At&T Mobility Ii Llc Locking and unlocking of an electronic device using a sloped lock track
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9424444B2 (en) 2009-10-14 2016-08-23 At&T Mobility Ii Llc Systems, apparatus, methods and computer-readable storage media for facilitating integrated messaging, contacts and social media for a selected entity
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
WO2011045861A1 (ja) * 2009-10-16 2011-04-21 パイオニア株式会社 地図表示装置、地図表示方法及び地図表示プログラム
KR20110044496A (ko) * 2009-10-23 2011-04-29 삼성전자주식회사 휴대 단말기의 입력 신호 처리 장치 및 방법
US10101898B2 (en) * 2009-10-23 2018-10-16 Autodesk, Inc. Multi-touch graphical user interface for interacting with menus on a handheld device
TWI448960B (zh) * 2009-11-04 2014-08-11 Univ Ishou Interactive navigation system
TWI494791B (zh) * 2009-11-06 2015-08-01 Au Optronics Corp 判斷觸控裝置之手勢之方法
GB0919516D0 (en) * 2009-11-06 2009-12-23 Imagination Tech Ltd Touch sensitive display
TWI493407B (zh) * 2009-11-09 2015-07-21 Elan Microelectronics Corp Multi - function touchpad remote control and its control method
US8390600B2 (en) * 2009-11-13 2013-03-05 Microsoft Corporation Interactive display system with contact geometry interface
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
US20110148786A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated Method and apparatus for changing operating modes
US9465532B2 (en) 2009-12-18 2016-10-11 Synaptics Incorporated Method and apparatus for operating in pointing and enhanced gesturing modes
JP4719296B1 (ja) * 2009-12-25 2011-07-06 株式会社東芝 情報処理装置及び情報処理方法
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US8456297B2 (en) * 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US20110167350A1 (en) * 2010-01-06 2011-07-07 Apple Inc. Assist Features For Content Display Device
JP5750875B2 (ja) * 2010-12-01 2015-07-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
JP2011150414A (ja) * 2010-01-19 2011-08-04 Sony Corp 情報処理装置、操作入力決定方法及び操作入力決定プログラム
JP5636678B2 (ja) * 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US8677268B2 (en) 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539385B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
US8539386B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US9411504B2 (en) * 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
CN101763270B (zh) 2010-01-28 2011-06-15 华为终端有限公司 组件显示处理方法和用户设备
US20110185299A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US20110191704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US20110191719A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Cut, Punch-Out, and Rip Gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9965165B2 (en) * 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US20110209080A1 (en) * 2010-02-24 2011-08-25 Htc Corporation Display method and electronic device for using the same
US20110205157A1 (en) * 2010-02-24 2011-08-25 Walline Erin K System and Method for Information Handling System Touchpad Enablement
US8539384B2 (en) * 2010-02-25 2013-09-17 Microsoft Corporation Multi-screen pinch and expand gestures
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8707174B2 (en) * 2010-02-25 2014-04-22 Microsoft Corporation Multi-screen hold and page-flip gesture
US9075522B2 (en) * 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US8471814B2 (en) * 2010-02-26 2013-06-25 Microsoft Corporation User interface control using a keyboard
TWI545468B (zh) * 2010-03-04 2016-08-11 Sentelic Corp Input device
JP5306266B2 (ja) * 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US9990062B2 (en) * 2010-03-26 2018-06-05 Nokia Technologies Oy Apparatus and method for proximity based input
DE102011006448A1 (de) 2010-03-31 2011-10-06 Tk Holdings, Inc. Lenkradsensoren
DE102011006344B4 (de) 2010-03-31 2020-03-12 Joyson Safety Systems Acquisition Llc Insassenmesssystem
DE102011006649B4 (de) 2010-04-02 2018-05-03 Tk Holdings Inc. Lenkrad mit Handsensoren
US20110252357A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9513801B2 (en) * 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US8448084B2 (en) * 2010-04-08 2013-05-21 Twitter, Inc. User interface mechanics
TWI413922B (zh) * 2010-04-23 2013-11-01 Primax Electronics Ltd 觸控板之控制方法與應用該方法之觸控裝置
US9134897B2 (en) 2010-04-26 2015-09-15 Via Technologies, Inc. Electronic system and method for operating touch screen thereof
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
JP2011238125A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
JP5533254B2 (ja) * 2010-05-24 2014-06-25 アイシン・エィ・ダブリュ株式会社 情報表示装置、情報表示方法及びプログラム
US20110298720A1 (en) * 2010-06-02 2011-12-08 Rockwell Automation Technologies, Inc. System and method for the operation of a touch screen
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
EP2393000B1 (de) * 2010-06-04 2019-08-07 Lg Electronics Inc. Mobiles Endgerät zur Bereitstellung eines Multiplayer-Spiels und Verfahren zur Steuerung des Betriebs des mobilen Endgeräts
US8749499B2 (en) 2010-06-08 2014-06-10 Sap Ag Touch screen for bridging multi and/or single touch points to applications
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
WO2011158475A1 (ja) 2010-06-16 2011-12-22 パナソニック株式会社 情報入力装置、情報入力方法及びプログラム
US8487955B2 (en) * 2010-06-30 2013-07-16 Xerox Corporation Language-based color editing for mobile devices
JP5241038B2 (ja) * 2010-07-01 2013-07-17 パナソニック株式会社 電子機器、表示制御方法、及びプログラム
US8773370B2 (en) 2010-07-13 2014-07-08 Apple Inc. Table editing systems with gesture-based insertion and deletion of columns and rows
US20120026077A1 (en) * 2010-07-28 2012-02-02 Google Inc. Mapping trackpad operations to touchscreen events
CN102346618A (zh) * 2010-07-29 2012-02-08 鸿富锦精密工业(深圳)有限公司 电子装置及其数据传输方法
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
JP5465135B2 (ja) * 2010-08-30 2014-04-09 富士フイルム株式会社 医療情報表示装置および方法、並びにプログラム
CN101943995A (zh) * 2010-09-01 2011-01-12 惠州Tcl移动通信有限公司 一种移动终端及其触摸屏的显示信息处理方法和装置
US8854318B2 (en) 2010-09-01 2014-10-07 Nokia Corporation Mode switching
JP5630160B2 (ja) * 2010-09-07 2014-11-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US20120056823A1 (en) * 2010-09-08 2012-03-08 Telefonaktiebolaget L M Ericsson (Publ) Gesture-Based Addressing of Devices
US8564728B2 (en) 2010-09-08 2013-10-22 Telefonaktiebolaget L M Ericsson (Publ) Gesture-based control of IPTV system
US9003298B2 (en) * 2010-09-21 2015-04-07 Microsoft Corporation Web page application controls
US9747270B2 (en) * 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US20120075196A1 (en) * 2010-09-23 2012-03-29 Nokia Corporation Apparatus and method for user input
US9235474B1 (en) 2011-02-17 2016-01-12 Axcient, Inc. Systems and methods for maintaining a virtual failover volume of a target computing system
US8589350B1 (en) 2012-04-02 2013-11-19 Axcient, Inc. Systems, methods, and media for synthesizing views of file system backups
US8954544B2 (en) 2010-09-30 2015-02-10 Axcient, Inc. Cloud-based virtual machines and offices
US8924360B1 (en) 2010-09-30 2014-12-30 Axcient, Inc. Systems and methods for restoring a file
US9705730B1 (en) 2013-05-07 2017-07-11 Axcient, Inc. Cloud storage using Merkle trees
US10284437B2 (en) 2010-09-30 2019-05-07 Efolder, Inc. Cloud-based virtual machines and offices
EP2437151B1 (de) 2010-10-01 2020-07-08 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät
KR101743632B1 (ko) 2010-10-01 2017-06-07 삼성전자주식회사 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법
US20120084737A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
US20120218202A1 (en) 2010-10-01 2012-08-30 Sanjiv Sirpal Windows position control for phone applications
EP2437153A3 (de) * 2010-10-01 2016-10-05 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät
US9678572B2 (en) 2010-10-01 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
FR2965962B1 (fr) * 2010-10-07 2014-11-21 Compagnie Ind Et Financiere Dingenierie Ingenico Dispositif de saisie de donnees en braille, procede et produit programme d'ordinateur correspondants.
JP5648405B2 (ja) * 2010-10-12 2015-01-07 コニカミノルタ株式会社 画像形成装置およびコンピュータプログラム
JP5199325B2 (ja) * 2010-10-14 2013-05-15 シャープ株式会社 情報入力装置及び画像形成装置
KR101915615B1 (ko) 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
CN102467315A (zh) * 2010-10-29 2012-05-23 国际商业机器公司 控制具有触摸式信号输入装置的电子设备的方法和系统
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
US20120133579A1 (en) * 2010-11-30 2012-05-31 Microsoft Corporation Gesture recognition management
US8812973B1 (en) 2010-12-07 2014-08-19 Google Inc. Mobile device text-formatting
JP5604279B2 (ja) * 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体
US9201539B2 (en) 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
JPWO2012081699A1 (ja) 2010-12-17 2014-05-22 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示制御方法およびプログラム
CN106095418B (zh) * 2010-12-20 2019-09-13 苹果公司 事件识别
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
KR101523866B1 (ko) * 2010-12-20 2015-05-28 애플 인크. 이벤트 인식
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
KR101718893B1 (ko) * 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
CN105704841B (zh) * 2010-12-28 2019-03-08 联想(北京)有限公司 一种电子设备间交换信息的方法和电子设备
US9223471B2 (en) * 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
KR20120075839A (ko) * 2010-12-29 2012-07-09 삼성전자주식회사 터치스크린 단말기에서 마우스 우 클릭 기능 제공 방법 및 장치
KR101802498B1 (ko) * 2010-12-31 2017-11-28 주식회사 케이티 이동 단말기 및 이동 단말기에서 터치 패턴 인식에 따른 지도 위치 검색 방법
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
TW201232349A (en) * 2011-01-21 2012-08-01 Novatek Microelectronics Corp Single finger gesture determination method, touch control chip, touch control system and computer system
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
CN102622116A (zh) * 2011-01-30 2012-08-01 联咏科技股份有限公司 单指手势判断方法、触控感应控制芯片及触控系统
JP5857255B2 (ja) * 2011-01-31 2016-02-10 パナソニックIpマネジメント株式会社 情報処理装置、処理制御方法、プログラム及び記録媒体
TWI455002B (zh) * 2011-02-01 2014-10-01 Edamak Corp 近接手勢偵測裝置及方法
US8839156B2 (en) * 2011-02-03 2014-09-16 Disney Enterprises, Inc. Pointer tool for touch screens
US9665250B2 (en) 2011-02-07 2017-05-30 Blackberry Limited Portable electronic device and method of controlling same
KR101873787B1 (ko) 2011-02-10 2018-07-03 삼성전자주식회사 터치스크린 단말기에서 멀티 터치 입력 처리 방법 및 장치
CA2827501A1 (en) * 2011-02-17 2012-08-23 Nike International Ltd. Location mapping
KR20120095034A (ko) * 2011-02-18 2012-08-28 삼성전자주식회사 휴대단말기의 터치패드 구동 방법 및 장치
US9594432B2 (en) 2011-02-18 2017-03-14 Nec Corporation Electronic device, control setting method and program
US8782566B2 (en) 2011-02-22 2014-07-15 Cisco Technology, Inc. Using gestures to schedule and manage meetings
TW201237725A (en) * 2011-03-04 2012-09-16 Novatek Microelectronics Corp Single-finger and multi-touch gesture determination method, touch control chip, touch control system and computer system
US9442652B2 (en) * 2011-03-07 2016-09-13 Lester F. Ludwig General user interface gesture lexicon and grammar frameworks for multi-touch, high dimensional touch pad (HDTP), free-space camera, and other user interfaces
TWI483171B (zh) * 2011-03-10 2015-05-01 Chi Mei Comm Systems Inc 檔案管理系統及方法
CN102681703A (zh) * 2011-03-10 2012-09-19 联咏科技股份有限公司 单指与多指手势判断方法、触控感应控制芯片及触控系统
US8760424B2 (en) * 2011-03-17 2014-06-24 Intellitact Llc Touch enhanced interface
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
JP5716502B2 (ja) * 2011-04-06 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5716503B2 (ja) * 2011-04-06 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
TWI483172B (zh) * 2011-04-07 2015-05-01 Chi Mei Comm Systems Inc 編排行動裝置用戶介面的方法和系統
US9367229B2 (en) * 2011-04-08 2016-06-14 Adobe Systems Incorporated Touch-enabled device navigation system
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
KR20130052749A (ko) * 2011-04-15 2013-05-23 엘지전자 주식회사 터치 기반 사용자 인터페이스 장치 및 방법
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
US9329773B2 (en) * 2011-05-19 2016-05-03 International Business Machines Corporation Scalable gesture-based device control
JP2012243163A (ja) * 2011-05-20 2012-12-10 Sony Corp 電子機器、プログラム及び制御方法
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9032338B2 (en) 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US8661339B2 (en) 2011-05-31 2014-02-25 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
CN103608760A (zh) * 2011-06-03 2014-02-26 谷歌公司 用于选择文本的手势
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US20120311444A1 (en) * 2011-06-05 2012-12-06 Apple Inc. Portable multifunction device, method, and graphical user interface for controlling media playback using gestures
KR101810884B1 (ko) * 2011-06-07 2017-12-20 삼성전자주식회사 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법
TWI470532B (zh) * 2011-06-09 2015-01-21 Inventec Corp 電子裝置及其操控方法
JP5790203B2 (ja) * 2011-06-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および遠隔操作システム
JP2013020289A (ja) * 2011-07-07 2013-01-31 Alps Electric Co Ltd 入力処理装置
KR101948645B1 (ko) 2011-07-11 2019-02-18 삼성전자 주식회사 그래픽 오브젝트를 이용한 컨텐츠 제어 방법 및 장치
US20130019175A1 (en) * 2011-07-14 2013-01-17 Microsoft Corporation Submenus for context based menu system
US9582187B2 (en) 2011-07-14 2017-02-28 Microsoft Technology Licensing, Llc Dynamic context based menus
CN102902469B (zh) * 2011-07-25 2015-08-19 宸鸿光电科技股份有限公司 手势识别方法及触控系统
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
ES2958183T3 (es) 2011-08-05 2024-02-05 Samsung Electronics Co Ltd Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
EP2557397B1 (de) * 2011-08-12 2014-02-19 Technisat Digital Gmbh Verfahren zum Bestimmen einer Route mittels einer Navigationseinrichtung
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기
US10706096B2 (en) 2011-08-18 2020-07-07 Apple Inc. Management of local and remote media items
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
JP5576841B2 (ja) 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
CN104115107B (zh) * 2011-09-13 2018-01-09 纽曼无限公司 用于操纵用户界面元件的装置、方法和计算机可读存储介质
EP2573666B1 (de) * 2011-09-21 2018-09-05 LG Electronics Inc. Mobiles Endgerät und Steuerungsverfahren dafür
KR101869774B1 (ko) * 2011-09-21 2018-06-22 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9182935B2 (en) 2011-09-27 2015-11-10 Z124 Secondary single screen mode activation through menu option
US9753623B2 (en) 2011-10-03 2017-09-05 Furuno Electric Co., Ltd. Device having touch panel, radar apparatus, plotter apparatus, ship network system, viewpoint changing method and viewpoint changing program
US9459716B2 (en) 2011-10-03 2016-10-04 Furuno Electric Co., Ltd. Device having touch panel, radar apparatus, plotter apparatus, ship network system, information displaying method and information displaying program
WO2013051050A1 (ja) 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム
US9157750B2 (en) 2011-10-03 2015-10-13 Furuno Electric Co., Ltd. Device having touch panel, radar apparatus, plotter apparatus, ship network system, information display method and information display program
TWI488487B (zh) * 2011-10-18 2015-06-11 Acer Inc 利用手勢調整視訊影像壓縮的方法
CN104160364A (zh) 2011-10-18 2014-11-19 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
US9053083B2 (en) 2011-11-04 2015-06-09 Microsoft Technology Licensing, Llc Interaction between web gadgets and spreadsheets
TWI597626B (zh) 2011-11-08 2017-09-01 威盛電子股份有限公司 觸控面板的控制裝置、單點多指動作判斷方法以及用於產生單點多指動作的觸控筆
US9367230B2 (en) * 2011-11-08 2016-06-14 Microsoft Technology Licensing, Llc Interaction models for indirect interaction devices
US9141280B2 (en) 2011-11-09 2015-09-22 Blackberry Limited Touch-sensitive display method and apparatus
US10082950B2 (en) * 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
US9383858B2 (en) * 2011-11-23 2016-07-05 Guangzhou Ucweb Computer Technology Co., Ltd Method and device for executing an operation on a mobile device
CN103135755B (zh) * 2011-12-02 2016-04-06 深圳泰山在线科技有限公司 交互系统及方法
US9286414B2 (en) 2011-12-02 2016-03-15 Microsoft Technology Licensing, Llc Data discovery and description service
US20130155010A1 (en) * 2011-12-14 2013-06-20 Microchip Technology Incorporated Capacitive Proximity Based Gesture Input System
US8902180B2 (en) * 2011-12-16 2014-12-02 Nokia Corporation Methods, apparatuses, and computer program products for enabling use of remote devices with pre-defined gestures
US9292094B2 (en) 2011-12-16 2016-03-22 Microsoft Technology Licensing, Llc Gesture inferred vocabulary bindings
CN106648434B (zh) * 2011-12-22 2020-09-04 阿里巴巴(中国)有限公司 通过拖拽手势控制应用界面的方法和装置
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
FR2985049B1 (fr) * 2011-12-22 2014-01-31 Nanotec Solution Dispositif de mesure capacitive a electrodes commutees pour interfaces tactiles et sans contact
US9116611B2 (en) * 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
KR101951480B1 (ko) * 2012-01-09 2019-02-22 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9342181B2 (en) 2012-01-09 2016-05-17 Nvidia Corporation Touch-screen input/output device touch sensing techniques
KR20130083195A (ko) * 2012-01-12 2013-07-22 삼성전자주식회사 터치를 이용한 키보드 레이아웃 변경을 위한 방법 및 장치
TW201329837A (zh) * 2012-01-13 2013-07-16 Fih Hong Kong Ltd 電子設備解鎖系統及方法
US9171099B2 (en) 2012-01-26 2015-10-27 Microsoft Technology Licensing, Llc System and method for providing calculation web services for online documents
KR20130091046A (ko) * 2012-02-07 2013-08-16 김지영 아이디어 휠 논리구조 기반형 iw어플리케이션모듈
US9395901B2 (en) * 2012-02-08 2016-07-19 Blackberry Limited Portable electronic device and method of controlling same
EP3196752B1 (de) * 2012-02-09 2020-05-06 Sony Corporation Kapazitive berührungstafelvorrichtung, entsprechendes berührungseingabeerkennungsverfahren und entsprechendes computerprogrammprodukt
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US20130215038A1 (en) * 2012-02-17 2013-08-22 Rukman Senanayake Adaptable actuated input device with integrated proximity detection
KR101873413B1 (ko) * 2012-02-17 2018-07-02 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US8830193B2 (en) 2012-02-23 2014-09-09 Honeywell International Inc. Controlling views in display device with touch screen
US9977876B2 (en) * 2012-02-24 2018-05-22 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
KR101894567B1 (ko) 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
JP2013179402A (ja) * 2012-02-28 2013-09-09 Sony Corp 端末装置、情報処理装置、表示方法、及び表示制御方法
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
WO2013138052A1 (en) * 2012-03-13 2013-09-19 Microsoft Corporation Web page application controls
US20130246975A1 (en) * 2012-03-15 2013-09-19 Chandar Kumar Oddiraju Gesture group selection
US8803831B1 (en) 2012-03-23 2014-08-12 Google Inc. Chording sheath for computing device
US9575652B2 (en) 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
JP5790578B2 (ja) * 2012-04-10 2015-10-07 株式会社デンソー 表示システム、表示装置、及び操作装置
JP5663519B2 (ja) * 2012-04-10 2015-02-04 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
JP5645869B2 (ja) * 2012-04-13 2014-12-24 京セラドキュメントソリューションズ株式会社 表示入力装置および画像形成装置
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
CN102622182A (zh) * 2012-04-16 2012-08-01 李波 具备近接感测投影点坐标指示的离屏触控交互系统
US20130285924A1 (en) * 2012-04-26 2013-10-31 Research In Motion Limited Method and Apparatus Pertaining to the Interpretation of Touch-Based Actions
TWI456487B (zh) * 2012-04-26 2014-10-11 Acer Inc 行動裝置以及手勢判斷方法
US9772700B2 (en) 2012-04-30 2017-09-26 Blackberry Limited Device and method for processing user input
US20130285927A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
US20140040789A1 (en) * 2012-05-08 2014-02-06 Adobe Systems Incorporated Tool configuration history in a user interface
AU2013259613B2 (en) 2012-05-09 2016-07-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
EP2847659B1 (de) 2012-05-09 2019-09-04 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen anzeigezuständen als reaktion auf eine geste
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
KR101806350B1 (ko) 2012-05-09 2017-12-07 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP3264252B1 (de) 2012-05-09 2019-11-27 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zum ausführen einer operation gemäss eines ausgewählten operationsmodus
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US20130307788A1 (en) * 2012-05-16 2013-11-21 Motorola Solutions, Inc. Device and method for automated use of force sensing touch panels
US10168835B2 (en) 2012-05-23 2019-01-01 Flatfrog Laboratories Ab Spatial resolution in touch displays
US8671361B2 (en) * 2012-05-24 2014-03-11 Blackberry Limited Presentation of image on display screen with combination crop and rotation and with auto-resizing of crop field
CN103455243B (zh) * 2012-06-04 2016-09-28 宏达国际电子股份有限公司 调整屏幕对象尺寸的方法及装置
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9223489B2 (en) * 2012-06-13 2015-12-29 Adobe Systems Incorporated Method and apparatus for gesture based copying of attributes
CN102750096A (zh) * 2012-06-15 2012-10-24 深圳乐投卡尔科技有限公司 一种车载Android平台多点手势控制方法
US9493342B2 (en) 2012-06-21 2016-11-15 Nextinput, Inc. Wafer level MEMS force dies
US8970525B1 (en) 2012-06-27 2015-03-03 Google Inc. Method and system for trackpad input error mitigation
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
CN102779009B (zh) * 2012-06-29 2015-04-08 华为终端有限公司 一种应用程序界面显示方法及终端
CN103513785A (zh) * 2012-06-29 2014-01-15 联想(北京)有限公司 一种信息处理方法、电子设备及输入设备
EP2870445A1 (de) 2012-07-05 2015-05-13 Ian Campbell Mikroelektromechanischer lastsensor und verfahren zur herstellung davon
CN109508091A (zh) * 2012-07-06 2019-03-22 原相科技股份有限公司 输入系统
WO2014014806A1 (en) 2012-07-15 2014-01-23 Apple Inc. Disambiguation of multitouch gesture recognition for 3d interaction
US9268424B2 (en) * 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
US9058103B2 (en) * 2012-07-25 2015-06-16 Facebook, Inc. Gestures for keyboard switch
TW201405363A (zh) * 2012-07-26 2014-02-01 Hon Hai Prec Ind Co Ltd 應用程式控制系統及方法
US9823935B2 (en) * 2012-07-26 2017-11-21 Nvidia Corporation Techniques for latching input events to display flips
KR102101818B1 (ko) * 2012-07-30 2020-04-17 삼성전자주식회사 단말기의 데이터전송 제어장치 및 방법
CN103576961A (zh) * 2012-08-06 2014-02-12 闫化玉 使用通用符号和通用符号的变体符号手势人机互交的方法
US9507513B2 (en) 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
US9250783B2 (en) 2012-08-21 2016-02-02 Apple Inc. Toggle gesture during drag gesture
JP5928245B2 (ja) * 2012-08-23 2016-06-01 カシオ計算機株式会社 データ処理装置及びプログラム
US9552068B2 (en) * 2012-08-27 2017-01-24 Microchip Technology Germany Gmbh Input device with hand posture control
US9218118B2 (en) 2012-09-11 2015-12-22 Apple Inc. Media player playlist management
US9558278B2 (en) 2012-09-11 2017-01-31 Apple Inc. Integrated content recommendation
CN104603577A (zh) * 2012-09-12 2015-05-06 丰田自动车株式会社 便携终端装置、车载装置以及车载系统
DE112013004512T5 (de) 2012-09-17 2015-06-03 Tk Holdings Inc. Einzelschicht-Kraftsensor
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9020845B2 (en) 2012-09-25 2015-04-28 Alexander Hieronymous Marlowe System and method for enhanced shopping, preference, profile and survey data input and gathering
US9785647B1 (en) 2012-10-02 2017-10-10 Axcient, Inc. File system virtualization
US9430123B2 (en) * 2012-10-09 2016-08-30 Sap Se Triggering a refresh of displayed content on a mobile device
US10877780B2 (en) 2012-10-15 2020-12-29 Famous Industries, Inc. Visibility detection using gesture fingerprinting
US9501171B1 (en) * 2012-10-15 2016-11-22 Famous Industries, Inc. Gesture fingerprinting
US10908929B2 (en) 2012-10-15 2021-02-02 Famous Industries, Inc. Human versus bot detection using gesture fingerprinting
WO2014062730A1 (en) 2012-10-15 2014-04-24 Famous Industries, Inc. Efficient manipulation of surfaces in multi-dimensional space using energy agents
JP5552632B2 (ja) * 2012-10-29 2014-07-16 株式会社東芝 情報処理装置および入力方法
US9058100B2 (en) * 2012-11-06 2015-06-16 Fang Li Using motion gestures to send, save, delete, and reject a message
US9852140B1 (en) 2012-11-07 2017-12-26 Axcient, Inc. Efficient file replication
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
US10503359B2 (en) * 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
US10289204B2 (en) * 2012-11-15 2019-05-14 Quantum Interface, Llc Apparatuses for controlling electrical devices and software programs and methods for making and using same
WO2014083953A1 (ja) * 2012-11-27 2014-06-05 ソニー株式会社 表示装置及び表示方法、並びにコンピューター・プログラム
US9235342B2 (en) * 2012-11-28 2016-01-12 International Business Machines Corporation Selective sharing of displayed content in a view presented on a touchscreen of a processing system
CN103019378B (zh) * 2012-12-07 2016-09-07 无锡清华信息科学与技术国家实验室物联网技术中心 一种移动电子设备手势控制交互方法、装置及移动终端
US9535583B2 (en) 2012-12-13 2017-01-03 Perkinelmer Informatics, Inc. Draw-ahead feature for chemical structure drawing applications
US9134893B2 (en) * 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Block-based content selecting technique for touch screen UI
US9134892B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Drag-based content selection technique for touch screen UI
US20140173529A1 (en) * 2012-12-14 2014-06-19 Barnesandnoble.Com Llc Circular gesture for touch sensitive ui control feature
CN104854481A (zh) * 2012-12-17 2015-08-19 Nec显示器解决方案株式会社 控制装置、控制方法以及显示装置
TWI475472B (zh) * 2012-12-19 2015-03-01 Inventec Corp 在觸控螢幕中提供繪圖操作之系統及其方法
CN103902080A (zh) * 2012-12-27 2014-07-02 华硕电脑股份有限公司 触控装置以及触控处理方法
WO2014105279A1 (en) * 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105274A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for navigating user interface hierarchies
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
WO2014105276A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for transitioning between touch input to display output relationships
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
KR102064965B1 (ko) 2013-01-04 2020-01-10 엘지전자 주식회사 더블 터치 제스처를 이용한 단말기 제어 방법 및 그 단말기
JP2016503215A (ja) 2013-01-15 2016-02-01 サーク・コーポレーション オーバーサンプリング山登りおよび山下り法を範囲と併せて使用する多次元多重指検索
CN103135929A (zh) * 2013-01-31 2013-06-05 北京小米科技有限责任公司 控制应用界面移动的方法、装置和终端设备
US9323343B2 (en) * 2013-01-31 2016-04-26 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
JP6232706B2 (ja) * 2013-02-05 2017-11-22 コニカミノルタ株式会社 情報表示装置、画像形成装置、情報表示装置の制御方法、および情報表示装置の制御プログラム
US20140237422A1 (en) * 2013-02-15 2014-08-21 Flatfrog Laboratories Ab Interpretation of pressure based gesture
US20140232672A1 (en) * 2013-02-20 2014-08-21 Tencent Technology (Shenzhen) Company Limited Method and terminal for triggering application programs and application program functions
JP5870212B2 (ja) * 2013-02-20 2016-02-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 携帯情報端末の制御方法及びプログラム
US9292153B1 (en) * 2013-03-07 2016-03-22 Axcient, Inc. Systems and methods for providing efficient and focused visualization of data
US9397907B1 (en) 2013-03-07 2016-07-19 Axcient, Inc. Protection status determinations for computing devices
KR102117086B1 (ko) * 2013-03-08 2020-06-01 삼성디스플레이 주식회사 단말기 및 그의 조작 방법
US8854361B1 (en) 2013-03-13 2014-10-07 Cambridgesoft Corporation Visually augmenting a graphical rendering of a chemical structure representation or biological sequence representation with multi-dimensional information
US9823813B2 (en) * 2013-03-15 2017-11-21 Salesforce.Com, Inc. Apparatus and methods for performing an action on a database record
US9477404B2 (en) 2013-03-15 2016-10-25 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
AU2014238101A1 (en) * 2013-03-15 2015-10-08 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9658740B2 (en) 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US20140280329A1 (en) 2013-03-15 2014-09-18 Salesforce.Com, Inc. Systems and methods for cross-referencing feed items
US9170676B2 (en) 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
CN104063140B (zh) * 2013-03-18 2017-11-03 联想(北京)有限公司 选择对象的方法和电子设备
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US20140298219A1 (en) * 2013-03-29 2014-10-02 Microsoft Corporation Visual Selection and Grouping
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US10114536B2 (en) * 2013-03-29 2018-10-30 Microsoft Technology Licensing, Llc Systems and methods for performing actions for users from a locked device
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
KR102087896B1 (ko) * 2013-04-03 2020-03-12 삼성전자주식회사 터치스크린을 가지는 전자 장치에서 텍스트 입력하는 방법 및 장치
US9589120B2 (en) * 2013-04-05 2017-03-07 Microsoft Technology Licensing, Llc Behavior based authentication for touch screen devices
US10019113B2 (en) 2013-04-11 2018-07-10 Flatfrog Laboratories Ab Tomographic processing for touch detection
TWI493406B (zh) * 2013-04-24 2015-07-21 Acer Inc 電子裝置及其觸控偵測方法
CN104123089A (zh) * 2013-04-27 2014-10-29 腾讯科技(深圳)有限公司 一种地址栏的手势操作方法、装置及触摸屏终端
US10599250B2 (en) 2013-05-06 2020-03-24 Qeexo, Co. Using finger touch types to interact with electronic devices
US9430127B2 (en) 2013-05-08 2016-08-30 Cambridgesoft Corporation Systems and methods for providing feedback cues for touch screen interface interaction with chemical and biological structure drawing applications
US9751294B2 (en) 2013-05-09 2017-09-05 Perkinelmer Informatics, Inc. Systems and methods for translating three dimensional graphic molecular models to computer aided design format
US10141930B2 (en) 2013-06-04 2018-11-27 Nvidia Corporation Three state latch
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3008641A1 (de) 2013-06-09 2016-04-20 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitaler assistenten
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
CN104252302A (zh) * 2013-06-26 2014-12-31 富泰华工业(深圳)有限公司 图像自适应调整系统及方法
WO2015005847A1 (en) 2013-07-12 2015-01-15 Flatfrog Laboratories Ab Partial detect mode
US10809893B2 (en) * 2013-08-09 2020-10-20 Insyde Software Corp. System and method for re-sizing and re-positioning application windows in a touch-based computing device
US9110561B2 (en) * 2013-08-12 2015-08-18 Apple Inc. Context sensitive actions
JP5456200B1 (ja) * 2013-08-13 2014-03-26 ソフトバンクモバイル株式会社 文字処理装置及びプログラム
TWI480797B (zh) * 2013-08-14 2015-04-11 Pegatron Corp 觸控方法及電子裝置
US9547525B1 (en) 2013-08-21 2017-01-17 Google Inc. Drag toolbar to enter tab switching interface
WO2015025382A1 (ja) * 2013-08-21 2015-02-26 三菱電機株式会社 プログラム編集用プログラム
US9569004B2 (en) 2013-08-22 2017-02-14 Google Inc. Swipe toolbar to switch tabs
US9785241B2 (en) * 2013-08-26 2017-10-10 Paypal, Inc. Gesture identification
US9823728B2 (en) 2013-09-04 2017-11-21 Nvidia Corporation Method and system for reduced rate touch scanning on an electronic device
JP6223755B2 (ja) * 2013-09-06 2017-11-01 株式会社東芝 方法、電子機器、及びプログラム
US9542004B1 (en) * 2013-09-24 2017-01-10 Amazon Technologies, Inc. Gesture-based flash
JP2015064697A (ja) * 2013-09-24 2015-04-09 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
US9881592B2 (en) 2013-10-08 2018-01-30 Nvidia Corporation Hardware overlay assignment
US20150113436A1 (en) * 2013-10-18 2015-04-23 Citrix Systems, Inc. Providing Enhanced Message Management User Interfaces
CN105579929B (zh) * 2013-10-29 2019-11-05 英特尔公司 基于手势的人机交互
US9965170B2 (en) * 2013-11-11 2018-05-08 Lenovo (Singapore) Pte. Ltd. Multi-touch inputs for input interface control
TWI489355B (zh) * 2013-11-13 2015-06-21 Wistron Corp 觸控感測模組、觸控感測方法及電腦程式產品
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
JP2015103161A (ja) * 2013-11-27 2015-06-04 コニカミノルタ株式会社 画像形成装置、操作画面の表示方法、およびコンピュータプログラム
JP6062351B2 (ja) * 2013-11-28 2017-01-18 京セラ株式会社 電子機器
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9507470B2 (en) 2013-12-16 2016-11-29 Nvidia Corporation Method and system for reduced power touch input detection on an electronic device using reduced scanning
WO2015106246A1 (en) 2014-01-13 2015-07-16 Nextinput, Inc. Miniaturized and ruggedized wafer level mems force sensors
WO2015108480A1 (en) 2014-01-16 2015-07-23 Flatfrog Laboratories Ab Improvements in tir-based optical touch systems of projection-type
US10146376B2 (en) 2014-01-16 2018-12-04 Flatfrog Laboratories Ab Light coupling in TIR-based optical touch systems
JP6278262B2 (ja) * 2014-03-12 2018-02-14 ヤマハ株式会社 表示制御装置
CN103870061A (zh) * 2014-03-14 2014-06-18 李雪飞 在多点触控设备上实现鼠标功能的方法
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
EP3126969A4 (de) 2014-04-04 2017-04-12 Microsoft Technology Licensing, LLC Erweiterbare anwendungsdarstellung
KR102107275B1 (ko) 2014-04-10 2020-05-06 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컴퓨팅 디바이스에 대한 접이식 쉘 커버
CN105359055A (zh) 2014-04-10 2016-02-24 微软技术许可有限责任公司 计算设备的滑盖
US10579252B2 (en) * 2014-04-28 2020-03-03 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
US11625145B2 (en) 2014-04-28 2023-04-11 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
DE102014208222A1 (de) * 2014-04-30 2015-11-05 Siemens Aktiengesellschaft Verfahren zum Abrufen von Anwendungsbefehlen, Recheneinheit und medizinisches Bildgebungssystem
KR20150134674A (ko) * 2014-05-22 2015-12-02 삼성전자주식회사 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10255267B2 (en) 2014-05-30 2019-04-09 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
EP3149728B1 (de) 2014-05-30 2019-01-16 Apple Inc. Eingabeverfahren durch einzelne äusserung mit mehreren befehlen
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
CN105224114A (zh) * 2014-06-11 2016-01-06 天津富纳源创科技有限公司 触控板控制方法
EP3161594A4 (de) 2014-06-27 2018-01-17 FlatFrog Laboratories AB Nachweis von oberflächenverschmutzung
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6399834B2 (ja) * 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
KR20160034776A (ko) 2014-09-22 2016-03-30 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
US10296206B2 (en) * 2014-09-23 2019-05-21 Microsoft Technology Licensing, Llc Multi-finger touchpad gestures
US9769227B2 (en) 2014-09-24 2017-09-19 Microsoft Technology Licensing, Llc Presentation of computing environment on multiple devices
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10025684B2 (en) 2014-09-24 2018-07-17 Microsoft Technology Licensing, Llc Lending target device resources to host device computing environment
US10635296B2 (en) * 2014-09-24 2020-04-28 Microsoft Technology Licensing, Llc Partitioned application presentation across devices
US10448111B2 (en) 2014-09-24 2019-10-15 Microsoft Technology Licensing, Llc Content projection
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
KR101651006B1 (ko) * 2014-09-30 2016-08-24 원혁 터치 스크린 장치 및 터치 스크린 장치 동작 방법
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
JP6055459B2 (ja) * 2014-12-17 2016-12-27 京セラドキュメントソリューションズ株式会社 タッチパネル装置、および画像処理装置
KR102049649B1 (ko) * 2014-12-22 2019-11-27 폭스바겐 악티엔 게젤샤프트 손가락 기반 컨트롤 바 및 상기 컨트롤 바의 사용
US20160179355A1 (en) * 2014-12-23 2016-06-23 General Electric Company System and method for managing image scan parameters in medical imaging
CN107209608A (zh) 2015-01-28 2017-09-26 平蛙实验室股份公司 动态触摸隔离帧
US10318074B2 (en) 2015-01-30 2019-06-11 Flatfrog Laboratories Ab Touch-sensing OLED display with tilted emitters
CN107209609A (zh) 2015-02-09 2017-09-26 平蛙实验室股份公司 包括在传输面板上方和内部投射和检测光束的装置的光学触摸系统
US10401546B2 (en) 2015-03-02 2019-09-03 Flatfrog Laboratories Ab Optical component for light coupling
KR102264748B1 (ko) * 2015-03-03 2021-06-14 삼성디스플레이 주식회사 터치 장치 및 이를 포함하는 표시 장치
US20160259544A1 (en) * 2015-03-04 2016-09-08 Artem Polikarpov Systems And Methods For Virtual Periphery Interaction
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9727151B2 (en) 2015-04-16 2017-08-08 Google Inc. Avoiding accidental cursor movement when contacting a surface of a trackpad
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
KR102328589B1 (ko) 2015-04-30 2021-11-17 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
TWI588734B (zh) * 2015-05-26 2017-06-21 仁寶電腦工業股份有限公司 電子裝置及其操作方法
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
JP6314914B2 (ja) * 2015-06-04 2018-04-25 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成装置の操作画面制御方法
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US9961239B2 (en) 2015-06-07 2018-05-01 Apple Inc. Touch accommodation options
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10489033B2 (en) 2015-06-07 2019-11-26 Apple Inc. Device, method, and graphical user interface for providing and interacting with a virtual drawing aid
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN117486166A (zh) 2015-06-10 2024-02-02 触控解决方案股份有限公司 具有容差沟槽的加固的晶圆级mems力传感器
US10599903B2 (en) 2015-06-26 2020-03-24 Lenovo (Beijing) Limited Information processing method and electronic device
WO2017019028A1 (en) * 2015-07-28 2017-02-02 Hewlett Packard Enterprise Development Lp Application launch state determination
US9965445B2 (en) 2015-08-06 2018-05-08 FiftyThree, Inc. Systems and methods for gesture-based formatting
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN105117100A (zh) * 2015-08-19 2015-12-02 小米科技有限责任公司 目标对象的显示方法和装置
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
CN105162982A (zh) * 2015-09-17 2015-12-16 小米科技有限责任公司 接听扩展功能显示方法及装置
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11150774B2 (en) * 2015-09-25 2021-10-19 International Business Machines Corporation Modifying display of objects on a user interface for a computing device based on detected patterns of user interaction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
JP2018536944A (ja) 2015-12-09 2018-12-13 フラットフロッグ ラボラトリーズ アーベーFlatFrog Laboratories AB 改善されたスタイラスの識別
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10528186B2 (en) * 2016-03-31 2020-01-07 Rovi Guides, Inc. Systems and methods for controlling playback of a media asset using a touch screen
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US10303255B2 (en) * 2016-05-31 2019-05-28 Atheer, Inc. Method and apparatus for unified free space pose input system navigation
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10817126B2 (en) * 2016-09-20 2020-10-27 Apple Inc. 3D document editing system
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN110100226A (zh) 2016-11-24 2019-08-06 平蛙实验室股份公司 触摸信号的自动优化
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10579150B2 (en) * 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
PT3667475T (pt) 2016-12-07 2022-10-17 Flatfrog Lab Ab Dispositivo tátil curvo
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN110300950B (zh) 2017-02-06 2023-06-16 平蛙实验室股份公司 触摸感测系统中的光学耦合
US11243125B2 (en) 2017-02-09 2022-02-08 Nextinput, Inc. Integrated piezoresistive and piezoelectric fusion force sensor
CN116907693A (zh) 2017-02-09 2023-10-20 触控解决方案股份有限公司 集成数字力传感器和相关制造方法
CN106843737B (zh) * 2017-02-13 2020-05-08 北京新美互通科技有限公司 文本输入方法、装置及终端设备
US10558341B2 (en) * 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
US10684758B2 (en) 2017-02-20 2020-06-16 Microsoft Technology Licensing, Llc Unified system for bimanual interactions
EP3590056A1 (de) 2017-03-03 2020-01-08 Perkinelmer Informatics, Inc. Systeme und verfahren zum suchen und indizieren von dokumenten mit chemischen informationen
EP3602257A4 (de) 2017-03-22 2021-01-13 Flatfrog Laboratories Radiergummi für berührungsanzeigen
CN110663015A (zh) 2017-03-28 2020-01-07 平蛙实验室股份公司 触摸感应装置和用于组装的方法
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
TWI652614B (zh) 2017-05-16 2019-03-01 緯創資通股份有限公司 攜帶式電子裝置及其操作方法
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US11221263B2 (en) 2017-07-19 2022-01-11 Nextinput, Inc. Microelectromechanical force sensor having a strain transfer layer arranged on the sensor die
US11423686B2 (en) 2017-07-25 2022-08-23 Qorvo Us, Inc. Integrated fingerprint and force sensor
US11243126B2 (en) 2017-07-27 2022-02-08 Nextinput, Inc. Wafer bonded piezoresistive and piezoelectric force sensor and related methods of manufacture
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
US20190056857A1 (en) * 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Resizing an active region of a user interface
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
CN111052058B (zh) 2017-09-01 2023-10-20 平蛙实验室股份公司 改进的光学部件
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
CN107728918A (zh) * 2017-09-27 2018-02-23 北京三快在线科技有限公司 浏览连续页面的方法、装置及电子设备
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN109634450A (zh) * 2017-10-09 2019-04-16 华为技术有限公司 防误触检测方法、装置及终端
WO2019079420A1 (en) 2017-10-17 2019-04-25 Nextinput, Inc. SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE
CN111295877B (zh) * 2017-11-01 2022-01-11 富士胶片株式会社 摄像装置、其工作方法及计算机可读取介质
US11385108B2 (en) 2017-11-02 2022-07-12 Nextinput, Inc. Sealed force sensor with etch stop layer
WO2019099821A1 (en) 2017-11-16 2019-05-23 Nextinput, Inc. Force attenuator for force sensor
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
CN110069147B (zh) * 2018-01-23 2023-02-03 可赛尔内存股份有限公司 操控装置及其控制方法
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
WO2019172826A1 (en) 2018-03-05 2019-09-12 Flatfrog Laboratories Ab Improved touch-sensing apparatus
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US11669243B2 (en) 2018-06-03 2023-06-06 Apple Inc. Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US10776006B2 (en) 2018-06-03 2020-09-15 Apple Inc. Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US11204682B1 (en) * 2018-10-29 2021-12-21 State Farm Mutual Automobile Insurance Company Dynamic data-driven consolidation of user interface interactions requesting roadside assistance
AU2019378243A1 (en) * 2018-11-14 2021-06-03 Wix.Com Ltd. System and method for creation and handling of configurable applications for website building systems
US10962427B2 (en) 2019-01-10 2021-03-30 Nextinput, Inc. Slotted MEMS force sensor
WO2020153890A1 (en) 2019-01-25 2020-07-30 Flatfrog Laboratories Ab A videoconferencing terminal and method of operating the same
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
KR20220027295A (ko) 2019-05-31 2022-03-07 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11379113B2 (en) 2019-06-01 2022-07-05 Apple Inc. Techniques for selecting text
WO2020256452A1 (ko) * 2019-06-19 2020-12-24 구자범 터치 패턴 입력을 이용한 보기 전환 장치 및 그 방법
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
US20210303473A1 (en) * 2020-03-27 2021-09-30 Datto, Inc. Method and system of copying data to a clipboard
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback

Family Cites Families (716)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3333160A (en) 1964-02-24 1967-07-25 Water Economy And Res Company Proximity responsive system
US3541541A (en) 1967-06-21 1970-11-17 Stanford Research Inst X-y position indicator for a display system
US3609695A (en) 1968-05-10 1971-09-28 Honeywell Inc Display-entry data terminal
US3662105A (en) 1970-05-21 1972-05-09 Univ Kentucky Res Found Electrical sensor of plane coordinates
US3757322A (en) 1971-02-03 1973-09-04 Hall Barkan Instr Inc Transparent touch controlled interface with interreactively related display
US3846826A (en) 1971-08-12 1974-11-05 R Mueller Direct television drawing and image manipulating system
US3798370A (en) 1972-04-17 1974-03-19 Elographics Inc Electrographic sensor for determining planar coordinates
US3748751A (en) 1972-09-07 1973-07-31 Us Navy Laser machine gun simulator
US3825730A (en) 1972-11-07 1974-07-23 Searle Medidata Inc Two-way projection system for data input
JPS51112236A (en) 1975-03-28 1976-10-04 Hitachi Ltd Shape position recognizer unit
US4017848A (en) 1975-05-19 1977-04-12 Rockwell International Corporation Transparent keyboard switch and array
US4146924A (en) 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
FR2392548A2 (fr) 1977-05-25 1978-12-22 Serras Paulet Edouard Dispositif a bouton poussoir de commande de commutation d'un circuit electronique ou electrique
US4202041A (en) 1977-07-11 1980-05-06 Massachusetts Institute Of Technology Dynamically variable keyboard terminal
CA1103803A (en) 1978-03-01 1981-06-23 National Research Council Of Canada Method and apparatus of determining the center of area or centroid of a geometrical area of unspecified shape lying in a larger x-y scan field
US4246452A (en) 1979-01-05 1981-01-20 Mattel, Inc. Switch apparatus
US4305131A (en) 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
JPS56132505A (en) 1980-03-24 1981-10-16 Hitachi Ltd Position detecting method
US4346376A (en) 1980-04-16 1982-08-24 Bell Telephone Laboratories, Incorporated Touch position sensitive surface
US4305071A (en) 1980-04-16 1981-12-08 Bell Telephone Laboratories, Incorporated Touch sensitive screen signal detection arrangement
US4484179A (en) 1980-04-16 1984-11-20 At&T Bell Laboratories Touch position sensitive surface
US4686374A (en) 1980-06-26 1987-08-11 Diffracto Ltd. Surface reflectivity detector with oil mist reflectivity enhancement
US4375674A (en) 1980-10-17 1983-03-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinesimetric method and apparatus
US4396945A (en) 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US4475122A (en) 1981-11-09 1984-10-02 Tre Semiconductor Equipment Corporation Automatic wafer alignment technique
US4542375A (en) 1982-02-11 1985-09-17 At&T Bell Laboratories Deformable touch sensitive surface
US4613942A (en) 1982-02-19 1986-09-23 Chen Richard M Orientation and control system for robots
US4549279A (en) 1983-01-21 1985-10-22 The Laitram Corporation Single hand, single finger stroke alphameric data processing keyboard system
US4631525A (en) 1983-04-11 1986-12-23 Sony Corporation Digital fader or like device
US4631676A (en) 1983-05-25 1986-12-23 Hospital For Joint Diseases Or Computerized video gait and motion analysis system and method
US4644326A (en) 1983-06-03 1987-02-17 Secure Keyboards Limited Unitary key panel
US4654872A (en) 1983-07-25 1987-03-31 Omron Tateisi Electronics Co. System for recognizing three-dimensional objects
JPS6029833A (ja) 1983-07-28 1985-02-15 Canon Inc 画像表示装置
US4561017A (en) 1983-08-19 1985-12-24 Richard Greene Graphic input apparatus
US4550221A (en) 1983-10-07 1985-10-29 Scott Mabusth Touch sensitive control device
US4733222A (en) 1983-12-27 1988-03-22 Integrated Touch Arrays, Inc. Capacitance-variation-sensitive touch sensing array system
US4629319A (en) 1984-02-14 1986-12-16 Diffracto Ltd. Panel surface flaw inspection
US4672364A (en) 1984-06-18 1987-06-09 Carroll Touch Inc Touch input device having power profiling
US4672558A (en) 1984-09-25 1987-06-09 Aquila Technologies Group, Inc. Touch-sensitive data input device
US4692809A (en) 1984-11-20 1987-09-08 Hughes Aircraft Company Integrated touch paint system for displays
US4695827A (en) 1984-11-20 1987-09-22 Hughes Aircraft Company Electromagnetic energy interference seal for light beam touch panels
US4853888A (en) 1984-12-31 1989-08-01 The Boeing Company Programmable multifunction keyboard
US4644100A (en) 1985-03-22 1987-02-17 Zenith Electronics Corporation Surface acoustic wave touch panel system
US4710760A (en) 1985-03-07 1987-12-01 American Telephone And Telegraph Company, At&T Information Systems Inc. Photoelastic touch-sensitive screen
US4771276A (en) 1985-04-15 1988-09-13 International Business Machines Corporation Electromagnetic touch sensor input system in a cathode ray tube display device
US5017030A (en) 1986-07-07 1991-05-21 Crews Jay A Ergonomically designed keyboard
US4703306A (en) 1986-09-26 1987-10-27 The Maytag Company Appliance system
US4763356A (en) 1986-12-11 1988-08-09 AT&T Information Systems, Inc. American Telephone and Telegraph Company Touch screen form entry system
FR2608753B1 (fr) 1986-12-18 1991-06-07 Centre Nat Rech Scient Dispositif de localisation bidimensionnelle d'evenements generateurs de courant sur une surface resistive
US4787040A (en) 1986-12-22 1988-11-22 International Business Machines Corporation Display system for automotive vehicle
JPS63167923A (ja) 1987-01-05 1988-07-12 Pfu Ltd イメ−ジデ−タ入力装置
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
FR2612326A1 (fr) 1987-03-13 1988-09-16 Thomson Csf Procede de reglage des couleurs d'un panneau a plasma polychrome et panneau a plasma utilisant un tel procede
US4988981B1 (en) 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
GB2204131B (en) 1987-04-28 1991-04-17 Ibm Graphics input tablet
US4806846A (en) 1987-07-06 1989-02-21 Kerber George L High accuracy direct reading capacitance-to-voltage converter
US4814759A (en) 1987-07-08 1989-03-21 Clinicom Incorporated Flat panel display monitor apparatus
US4772028A (en) 1987-08-27 1988-09-20 Rockhold Christopher K Electronic shootout game
US5153829A (en) 1987-11-11 1992-10-06 Canon Kabushiki Kaisha Multifunction musical information processing apparatus
US4914624A (en) 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
CH672704B5 (de) 1988-05-26 1990-06-29 Ebauchesfabrik Eta Ag
US5060135A (en) 1988-09-16 1991-10-22 Wang Laboratories, Inc. Apparatus for manipulating documents in a data processing system utilizing reduced images of sheets of information which are movable
US4968877A (en) 1988-09-14 1990-11-06 Sensor Frame Corporation VideoHarp
CA2002912A1 (en) 1988-11-14 1990-05-14 William A. Clough Portable computer with touch screen and computer system employing same
US5045843B1 (en) 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US5741990A (en) 1989-02-17 1998-04-21 Notepool, Ltd. Method of and means for producing musical note relationships
US4898555A (en) 1989-03-23 1990-02-06 Bell & Howell Publication Systems Company Display screen bezel and assembly method
JPH0649030Y2 (ja) 1989-04-05 1994-12-12 パイオニア株式会社 データ入力装置
US5620267A (en) 1993-10-15 1997-04-15 Keyboard Advancements, Inc. Keyboard with thumb activated control key
US4948371A (en) 1989-04-25 1990-08-14 The United States Of America As Represented By The United States Department Of Energy System for training and evaluation of security personnel in use of firearms
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5157384A (en) 1989-04-28 1992-10-20 International Business Machines Corporation Advanced user interface
DK174788B1 (da) 1989-05-08 2003-11-10 Dainippon Printing Co Ltd Baglysprojektionsskærm
US5072294A (en) 1989-06-07 1991-12-10 Loredan Biomedical, Inc. Method and apparatus for analyzing a body having a marker located thereon
US5305017A (en) 1989-08-16 1994-04-19 Gerpheide George E Methods and apparatus for data input
US5189403A (en) 1989-09-26 1993-02-23 Home Row, Inc. Integrated keyboard and pointing device system with automatic mode change
CA2027103A1 (en) 1989-10-13 1991-04-14 William A. Clough Method and apparatus for displaying simulated keyboards on touch-sensitive displays
JP2622620B2 (ja) 1989-11-07 1997-06-18 プロクシマ コーポレイション コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム
JP2854359B2 (ja) 1990-01-24 1999-02-03 富士通株式会社 画像処理システム
US5241308A (en) 1990-02-22 1993-08-31 Paragon Systems, Inc. Force sensitive touch panel
US5581243A (en) 1990-06-04 1996-12-03 Microslate Inc. Method and apparatus for displaying simulated keyboards on touch-sensitive displays
US5097425A (en) 1990-06-11 1992-03-17 Semantic Compaction Systems Predictive scanning input system for rapid selection of visual indicators
JP3301079B2 (ja) 1990-06-18 2002-07-15 ソニー株式会社 情報入力装置、情報入力方法、情報処理装置及び情報処理方法
JPH0454523A (ja) 1990-06-21 1992-02-21 Hitachi Aic Inc タッチパネル
GB2245708A (en) 1990-06-29 1992-01-08 Philips Electronic Associated Touch sensor array systems
CA2087523C (en) 1990-07-17 1997-04-15 Mark Andrew Shackleton Method of processing an image
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5119079A (en) 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US5224861A (en) 1990-09-17 1993-07-06 Hughes Aircraft Company Training device onboard instruction station
US5347295A (en) 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5148155A (en) 1990-11-13 1992-09-15 Wang Laboratories, Inc. Computer with tablet input to standard programs
US5260697A (en) 1990-11-13 1993-11-09 Wang Laboratories, Inc. Computer with separate display plane and user interface processor
US5442742A (en) 1990-12-21 1995-08-15 Apple Computer, Inc. Method and apparatus for the manipulation of text on a computer display screen
KR100318330B1 (ko) 1991-04-08 2002-04-22 가나이 쓰도무 감시장치
US5689253A (en) 1991-04-10 1997-11-18 Kinesis Corporation Ergonomic keyboard apparatus
US5898434A (en) 1991-05-15 1999-04-27 Apple Computer, Inc. User interface system having programmable user interface elements
US5548667A (en) 1991-05-24 1996-08-20 Sony Corporation Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
US5178477A (en) 1991-06-06 1993-01-12 Gambaro Thomas L Ergonomic keyboard input device
US5168531A (en) 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
WO1993000629A1 (en) 1991-06-28 1993-01-07 Infogrip, Inc. Chordic keyboard system
US5666113A (en) 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
US5227985A (en) 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
JP2827612B2 (ja) 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
US5335557A (en) 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
US5963671A (en) 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
CA2078607A1 (en) 1991-12-13 1993-06-14 Thomas H. Speeter Intelligent work surfaces
US5212555A (en) 1991-12-17 1993-05-18 Texas Instruments Incorporated Image capture with spatial light modulator and single-cell photosensor
JPH0619663A (ja) 1991-12-27 1994-01-28 Nippon Telegr & Teleph Corp <Ntt> マルチウィンドウの自動操作方法
US5281966A (en) 1992-01-31 1994-01-25 Walsh A Peter Method of encoding alphabetic characters for a chord keyboard
EP0554492B1 (de) 1992-02-07 1995-08-09 International Business Machines Corporation Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
EP0563477A1 (de) 1992-03-25 1993-10-06 Visage Inc. Berührungsbilschirm-Sensorvorrichtung
US5495269A (en) 1992-04-03 1996-02-27 Xerox Corporation Large area electronic writing system
US5347629A (en) 1992-04-07 1994-09-13 International Business Machines Corporation Graphical user interface including updating of multiple panels using what you see is what you get (WYSIWYG) editor
US5398310A (en) 1992-04-13 1995-03-14 Apple Computer, Incorporated Pointing gesture based computer note pad paging and scrolling interface
US5563996A (en) 1992-04-13 1996-10-08 Apple Computer, Inc. Computer note pad including gesture based note division tools and method
JPH05297979A (ja) 1992-04-20 1993-11-12 Matsushita Electric Ind Co Ltd 膝乗せ型計算機
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5463696A (en) 1992-05-27 1995-10-31 Apple Computer, Inc. Recognition system and method for user inputs to a computer system
US5452371A (en) 1992-05-27 1995-09-19 Apple Computer, Inc. Method of aligning shapes on a display of a computer system
US5710844A (en) 1992-05-27 1998-01-20 Apple Computer Method for searching and displaying results in a pen-based computer system
US5544295A (en) 1992-05-27 1996-08-06 Apple Computer, Inc. Method and apparatus for indicating a change in status of an object and its disposition using animation
US5764818A (en) 1992-05-27 1998-06-09 Apple Computer, Inc. Method for locating and displaying information in a pointer-based computer system
US5592566A (en) 1992-05-27 1997-01-07 Apple Computer, Incorporated Method and apparatus for computerized recognition
US5543590A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature
DE69324067T2 (de) 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5543591A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US6028271A (en) 1992-06-08 2000-02-22 Synaptics, Inc. Object position detector with edge motion feature and gesture recognition
US5565658A (en) 1992-07-13 1996-10-15 Cirque Corporation Capacitance-based proximity with interference rejection apparatus and methods
US5328190A (en) 1992-08-04 1994-07-12 Dart International, Inc. Method and apparatus enabling archery practice
US5319386A (en) 1992-08-04 1994-06-07 Gunn Gary J Ideographic character selection method and apparatus
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
US5821930A (en) 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
JP3268467B2 (ja) 1992-09-08 2002-03-25 株式会社日立製作所 電話機
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US7098891B1 (en) 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5345543A (en) 1992-11-16 1994-09-06 Apple Computer, Inc. Method for manipulating objects on a computer display
JP3469912B2 (ja) 1992-11-18 2003-11-25 株式会社デジタル 複数の同時入力が可能なタッチパネル入力装置及び入力方法
US5363051A (en) 1992-11-23 1994-11-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Steering capaciflector sensor
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US5412189A (en) 1992-12-21 1995-05-02 International Business Machines Corporation Touch screen apparatus with tactile information
US5568604A (en) 1992-12-31 1996-10-22 U S West Technologies, Inc. Method and system for generating a working window in a computer system
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US5513309A (en) 1993-01-05 1996-04-30 Apple Computer, Inc. Graphic editor user interface for a pointer-based computer system
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5463388A (en) 1993-01-29 1995-10-31 At&T Ipm Corp. Computer mouse or keyboard input device utilizing capacitive sensors
JP2986047B2 (ja) 1993-04-29 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション ディジタル入力用表示装置並びに入力処理装置および方法
DE69430967T2 (de) 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
US5563632A (en) 1993-04-30 1996-10-08 Microtouch Systems, Inc. Method of and apparatus for the elimination of the effects of internal interference in force measurement systems, including touch - input computer and related displays employing touch force location measurement techniques
US5677710A (en) 1993-05-10 1997-10-14 Apple Computer, Inc. Recognition keypad
US5808567A (en) 1993-05-17 1998-09-15 Dsi Datotech Systems, Inc. Apparatus and method of communicating using three digits of a hand
EP0626635B1 (de) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
WO1994029788A1 (en) 1993-06-15 1994-12-22 Honeywell Inc. A method for utilizing a low resolution touch screen system in a high resolution graphics environment
US5367453A (en) 1993-08-02 1994-11-22 Apple Computer, Inc. Method and apparatus for correcting words
GB9317932D0 (en) 1993-08-26 1993-10-13 Cambridge Display Tech Ltd Electroluminescent devices
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5583946A (en) 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
US5510806A (en) 1993-10-28 1996-04-23 Dell Usa, L.P. Portable computer having an LCD projection display system
US5422656A (en) 1993-11-01 1995-06-06 International Business Machines Corp. Personal communicator having improved contrast control for a liquid crystal, touch sensitive display
US6243071B1 (en) 1993-11-03 2001-06-05 Apple Computer, Inc. Tool set for navigating through an electronic book
US5982355A (en) 1993-11-05 1999-11-09 Jaeger; Denny Multiple purpose controls for electrical systems
JPH07129312A (ja) 1993-11-05 1995-05-19 Oki Electric Ind Co Ltd 画像処理装置
US5805146A (en) 1993-11-05 1998-09-08 Intertactile Technologies Corporation Integrated display screen and slidable control for electrical circuits
US5841428A (en) 1993-11-05 1998-11-24 Intertactile Technologies Corporation Rotary circuit control devices with changeable graphics
US5805145A (en) 1993-11-05 1998-09-08 Intertactile Technologies Corporation Circuit control panel displaying changeable graphics
US5936613A (en) 1993-11-05 1999-08-10 Intertactile Technologies Corporation Rotary circuit control devices with changeable graphics
US5777603A (en) 1993-11-05 1998-07-07 Intertactile Technologies Corporation Flat panel display with optical signal transparent zone
EP0727082A4 (de) 1993-11-05 2000-11-15 Intertactile Tech Corp Bedienerschnittstelle mit eingebautem anzeigeschirm
US5530456A (en) 1993-12-09 1996-06-25 Nec Corporation Position information input method and device
JP3546337B2 (ja) 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5471578A (en) 1993-12-30 1995-11-28 Xerox Corporation Apparatus and method for altering enclosure selections in a gesture based input system
DE69426919T2 (de) 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
DE69428675T2 (de) 1993-12-30 2002-05-08 Xerox Corp Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem
US5572573A (en) 1994-01-25 1996-11-05 U S West Advanced Technologies, Inc. Removable user interface for use with interactive electronic devices
WO1995020787A1 (en) 1994-01-27 1995-08-03 Exos, Inc. Multimode feedback display technology
US5982302A (en) 1994-03-07 1999-11-09 Ure; Michael J. Touch-sensitive keyboard/mouse
GB9406702D0 (en) 1994-04-05 1994-05-25 Binstead Ronald P Multiple input proximity detector and touchpad system
JPH07275511A (ja) 1994-04-06 1995-10-24 Sega Enterp Ltd シューティングゲームシステムのアトラクション展開方法
US5579036A (en) 1994-04-28 1996-11-26 At&T Global Information Solutions Company Touch screen device and shielding bracket therefor
AU2586595A (en) 1994-05-12 1995-12-05 Apple Computer, Inc. Method and apparatus for noise filtering for an input device
KR0155210B1 (ko) * 1994-06-13 1998-11-16 가네꼬 히사시 Mos 4상한 멀티플라이어
US5570113A (en) 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system
DE4423005C1 (de) 1994-06-30 1995-11-30 Siemens Ag Eingabevorrichtung für einen Computer
US5530455A (en) 1994-08-10 1996-06-25 Mouse Systems Corporation Roller mouse for implementing scrolling in windows applications
US7489303B1 (en) 2001-02-22 2009-02-10 Pryor Timothy R Reconfigurable instrument panels
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5649706A (en) 1994-09-21 1997-07-22 Treat, Jr.; Erwin C. Simulator and practice method
DE69524340T2 (de) 1994-09-22 2002-08-14 Aisin Aw Co Berührungsanzeige für ein Informationseingabesystem
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5572647A (en) 1994-11-04 1996-11-05 International Business Machines Corporation Visibility seeking scroll bars and other control constructs
US5745719A (en) 1995-01-19 1998-04-28 Falcon; Fernando D. Commands functions invoked from movement of a control input device
US5736976A (en) 1995-02-13 1998-04-07 Cheung; Nina T. Computer data entry apparatus with hand motion sensing and monitoring
US5565888A (en) 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5838302A (en) 1995-02-24 1998-11-17 Casio Computer Co., Ltd. Data inputting devices for inputting typed and handwritten data in a mixed manner
US5748512A (en) 1995-02-28 1998-05-05 Microsoft Corporation Adjusting keyboard
US5618232A (en) 1995-03-23 1997-04-08 Martin; John R. Dual mode gaming device methods and systems
US5900876A (en) 1995-04-14 1999-05-04 Canon Kabushiki Kaisha Information processing apparatus and method with display book page turning
US5591945A (en) 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
US5729250A (en) 1995-05-08 1998-03-17 International Business Machines Corporation Front cover assembly for a touch sensitive device
US6255604B1 (en) 1995-05-31 2001-07-03 Canon Kabushiki Kaisha Coordinate detecting device for outputting coordinate data when two points are simultaneously depressed, method therefor and computer control device
US5689667A (en) 1995-06-06 1997-11-18 Silicon Graphics, Inc. Methods and system of controlling menus with radial and linear portions
US5790107A (en) 1995-06-07 1998-08-04 Logitech, Inc. Touch sensing method and apparatus
US5798760A (en) 1995-06-07 1998-08-25 Vayda; Mark Radial graphical menuing system with concentric region menuing
US5502514A (en) 1995-06-07 1996-03-26 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US6031524A (en) 1995-06-07 2000-02-29 Intermec Ip Corp. Hand-held portable data terminal having removably interchangeable, washable, user-replaceable components with liquid-impervious seal
US5831601A (en) 1995-06-07 1998-11-03 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US20090322499A1 (en) 1995-06-29 2009-12-31 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP3610635B2 (ja) 1995-07-18 2005-01-19 マツダ株式会社 車載機器の操作用表示装置
JPH0935584A (ja) 1995-07-21 1997-02-07 Yazaki Corp 車両用表示装置
US5999895A (en) 1995-07-24 1999-12-07 Forest; Donald K. Sound operated menu method and apparatus
US6005549A (en) 1995-07-24 1999-12-21 Forest; Donald K. User interface method and apparatus
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US5634102A (en) 1995-08-07 1997-05-27 Apple Computer, Inc. Methods and apparatus for a selectable backdrop
US5745716A (en) 1995-08-07 1998-04-28 Apple Computer, Inc. Method and apparatus for tab access and tab cycling in a pen-based computer system
US5666502A (en) 1995-08-07 1997-09-09 Apple Computer, Inc. Graphical user interface using historical lists with field classes
US5867149A (en) 1995-08-14 1999-02-02 Intertactile Technologies Corporation Switch key image display and operator/circuit interface
US5675361A (en) 1995-08-23 1997-10-07 Santilli; Donald S. Computer keyboard pointing device
US5746818A (en) 1995-08-31 1998-05-05 Seiko Epson Corporation Pigment ink composition capable of forming image having no significant bleeding or feathering
US6481851B1 (en) 1995-09-20 2002-11-19 Videotronic Systems Adjustable contrast reflected display system
US5631805A (en) 1995-09-27 1997-05-20 Dynapro Systems, Inc. Touch screen enclosure having an insertable graphic sheet
US5636101A (en) 1995-09-27 1997-06-03 Dynapro Systems, Inc. Touch screen enclosure system having touch screen pan and hinged rear enclosure section for ease of serviceability
US6049328A (en) 1995-10-20 2000-04-11 Wisconsin Alumni Research Foundation Flexible access system for touch screen devices
US5801941A (en) 1996-08-12 1998-09-01 International Business Machines Corporation Mobile client computer programmed to establish soft keyboard targeting sensitivity
JP3727399B2 (ja) 1996-02-19 2005-12-14 ミサワホーム株式会社 画面表示式キー入力装置
JPH09146708A (ja) 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US5767457A (en) 1995-11-13 1998-06-16 Cirque Corporation Apparatus and method for audible feedback from input device
US6473069B1 (en) 1995-11-13 2002-10-29 Cirque Corporation Apparatus and method for tactile feedback from input device
EP0861485A1 (de) 1995-11-16 1998-09-02 Michael J. Ure Mehrtasteingangsvorrichtung und verfahren und system zur minimierung des speicherbedarfs
US6107997A (en) 1996-06-27 2000-08-22 Ure; Michael J. Touch-sensitive keyboard/mouse and computing device using the same
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
SE504758C2 (sv) 1995-12-21 1997-04-21 Siemens Elema Ab Apparatpanel
US5730165A (en) 1995-12-26 1998-03-24 Philipp; Harald Time domain capacitive field detector
US5823782A (en) 1995-12-29 1998-10-20 Tinkers & Chance Character recognition educational system
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5920309A (en) 1996-01-04 1999-07-06 Logitech, Inc. Touch sensing method and apparatus
US5736975A (en) 1996-02-02 1998-04-07 Interactive Sales System Interactive video display
US5871251A (en) 1996-03-14 1999-02-16 Prince Corporation Visor display
AU2808697A (en) 1996-04-24 1997-11-12 Logitech, Inc. Touch and pressure sensing method and apparatus
GB9608747D0 (en) 1996-04-26 1996-07-03 Philips Electronics Nv Fingerprint sensing devices and systems incorporating such
US5764222A (en) 1996-05-28 1998-06-09 International Business Machines Corporation Virtual pointing device for touchscreens
US5874948A (en) 1996-05-28 1999-02-23 International Business Machines Corporation Virtual pointing device for touchscreens
US5748184A (en) 1996-05-28 1998-05-05 International Business Machines Corporation Virtual pointing device for touchscreens
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US5956822A (en) 1996-06-12 1999-09-28 Knecht Filterwerke Gmbh Snap-lock connection for two parts which can rotate in relation to each other
US5808605A (en) 1996-06-13 1998-09-15 International Business Machines Corporation Virtual pointing device for touchscreens
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US5790104A (en) 1996-06-25 1998-08-04 International Business Machines Corporation Multiple, moveable, customizable virtual pointing devices
GB9613315D0 (en) 1996-06-25 1996-08-28 Philips Electronics Nv Virtual environment interaction and navigation device
US5933134A (en) 1996-06-25 1999-08-03 International Business Machines Corporation Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
US5856824A (en) 1996-06-25 1999-01-05 International Business Machines Corp. Reshapable pointing device for touchscreens
US6054990A (en) 1996-07-05 2000-04-25 Tran; Bao Q. Computer system with handwriting annotation
JPH1039748A (ja) 1996-07-18 1998-02-13 Koonet:Kk 電子式地図システム、それを用いた情報提供装置及び記憶媒体
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6288707B1 (en) 1996-07-29 2001-09-11 Harald Philipp Capacitive position sensor
KR100260760B1 (ko) 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US5943044A (en) 1996-08-05 1999-08-24 Interlink Electronics Force sensing semiconductive touchpad
US5818451A (en) 1996-08-12 1998-10-06 International Busienss Machines Corporation Computer programmed soft keyboard system, method and apparatus having user input displacement
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US6308144B1 (en) 1996-09-26 2001-10-23 Computervision Corporation Method and apparatus for providing three-dimensional model associativity
GB9620464D0 (en) 1996-10-01 1996-11-20 Philips Electronics Nv Hand held image display device
US6650319B1 (en) 1996-10-29 2003-11-18 Elo Touchsystems, Inc. Touch screen based topological mapping with resistance framing design
US5854625A (en) 1996-11-06 1998-12-29 Synaptics, Incorporated Force sensing touchpad
US5870091A (en) 1996-11-07 1999-02-09 Adobe Systems Incorporated Combining palettes on a computer display
US5883619A (en) 1996-11-12 1999-03-16 Primax Electronics Ltd. Computer mouse for scrolling a view of an image
US6031469A (en) 1996-11-12 2000-02-29 Dodd; Jerry Ergonomic computer keyboard
US5748269A (en) 1996-11-21 1998-05-05 Westinghouse Air Brake Company Environmentally-sealed, convectively-cooled active matrix liquid crystal display (LCD)
US6154201A (en) 1996-11-26 2000-11-28 Immersion Corporation Control knob with multiple degrees of freedom and force feedback
JPH10171583A (ja) 1996-12-05 1998-06-26 Wacom Co Ltd 位置検出装置およびその位置指示器
JPH10171600A (ja) 1996-12-06 1998-06-26 Brother Ind Ltd 入力装置
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
US6278441B1 (en) 1997-01-09 2001-08-21 Virtouch, Ltd. Tactile interface system for electronic data display system
US5850218A (en) 1997-02-19 1998-12-15 Time Warner Entertainment Company L.P. Inter-active program guide with default selection control
JPH10232734A (ja) 1997-02-20 1998-09-02 Sharp Corp 仮想キーボード
US6105419A (en) 1997-03-25 2000-08-22 Recot, Inc. Apparatus and process for inspecting sealed packages
EP1016066A4 (de) 1997-03-31 2001-06-13 G & R Associates Inc Computertelefonintegration unterverwendung einer intelligenten tastatur und verfahren hierfür
US5943053A (en) 1997-04-01 1999-08-24 Sun Microsystems, Inc. Method and apparatus for expanding and contracting a window panel
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US6049326A (en) 1997-05-12 2000-04-11 Siemens Information And Communication Networks, Inc. System and method for dual browser modes
US5949345A (en) 1997-05-27 1999-09-07 Microsoft Corporation Displaying computer information to a driver of a vehicle
US6054984A (en) 1997-05-27 2000-04-25 Hewlett-Packard Company System and method for graphically manipulating display elements in a signal measurement system
US6803905B1 (en) 1997-05-30 2004-10-12 International Business Machines Corporation Touch sensitive apparatus and method for improved visual feedback
US6289326B1 (en) 1997-06-04 2001-09-11 Lafleur Bernard B. Portable interactive kiosk
US5910800A (en) 1997-06-11 1999-06-08 Microsoft Corporation Usage tips for on-screen touch-sensitive controls
CH691711A5 (fr) 1997-06-11 2001-09-14 Asulab Sa Montre avec lecture et réglage tactiles des fonctions horométriques.
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US7002749B2 (en) 1997-07-08 2006-02-21 Kremen Stanley H Modular integral magnifier
US5974541A (en) 1997-07-22 1999-10-26 National Instruments Corporation GPIB system and method which provides asynchronous event notification
JPH1153093A (ja) 1997-08-04 1999-02-26 Hitachi Ltd 入力装置
US5943052A (en) 1997-08-12 1999-08-24 Synaptics, Incorporated Method and apparatus for scroll bar control
JP3000972B2 (ja) 1997-08-18 2000-01-17 日本電気株式会社 情報提供装置及びプログラムを記録した機械読み取り可能な記録媒体
US6920619B1 (en) 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
JPH1173271A (ja) 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JPH1178369A (ja) 1997-09-03 1999-03-23 Plus Kogyo Kk 表示システム
JPH1185380A (ja) 1997-09-10 1999-03-30 Seiko Denshi Kiki Kk 座標読取装置、そのインタフェース装置及び座標読取システム
US6104384A (en) 1997-09-12 2000-08-15 Ericsson, Inc. Image based keyboard for a small computing device
US6433801B1 (en) 1997-09-26 2002-08-13 Ericsson Inc. Method and apparatus for using a touch screen display on a portable intelligent communications device
US6084576A (en) 1997-09-27 2000-07-04 Leu; Neng-Chyang User friendly keyboard
US6037882A (en) 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
JPH11119911A (ja) 1997-10-15 1999-04-30 Fujitsu Ten Ltd スイッチ装置
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
GB2330750B (en) 1997-10-24 2002-09-04 Sony Uk Ltd Audio processing
GB2330670B (en) 1997-10-24 2002-09-11 Sony Uk Ltd Data processing
GB2330752B (en) 1997-10-24 2002-09-04 Sony Uk Ltd Audio processing
JPH11133816A (ja) 1997-10-27 1999-05-21 Canon Inc 画像形成装置、設定情報入力方法および記憶媒体
US5995101A (en) 1997-10-29 1999-11-30 Adobe Systems Incorporated Multi-level tool tip
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6057845A (en) 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
SE510949C2 (sv) 1997-11-25 1999-07-12 Saab Automobile Kontrollpanel
SE9704330D0 (sv) 1997-11-25 1997-11-25 Siemens Elema Ab Apparatpanel
US6400379B1 (en) 1997-11-25 2002-06-04 Pioneer Digital Technologies, Inc. Method and apparatus for selectively displaying additional information relating to broadcast information
FI104928B (fi) 1997-11-27 2000-04-28 Nokia Mobile Phones Ltd Langaton viestin ja menetelmä langattoman viestimen valmistuksessa
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US6037937A (en) 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
GB2332293A (en) 1997-12-11 1999-06-16 British Telecomm An Input Device
US6075531A (en) 1997-12-15 2000-06-13 International Business Machines Corporation Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer
JPH11184669A (ja) 1997-12-24 1999-07-09 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理装置制御プログラムを記憶した媒体
US6757001B2 (en) 1999-03-30 2004-06-29 Research Investment Network, Inc. Method of using physical buttons in association with a display to access and execute functions available through associated hardware and software
US5933141A (en) 1998-01-05 1999-08-03 Gateway 2000, Inc. Mutatably transparent displays
JPH11194863A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk タッチ入力検知方法及びタッチ入力検知装置
KR100595920B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
JP2938420B2 (ja) 1998-01-30 1999-08-23 インターナショナル・ビジネス・マシーンズ・コーポレイション ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体
US6175610B1 (en) 1998-02-11 2001-01-16 Siemens Aktiengesellschaft Medical technical system controlled by vision-detected operator activity
US6249606B1 (en) 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6013956A (en) 1998-02-23 2000-01-11 Cooper Automotive Products, Inc. Touch control switches for vehicles
US6380853B1 (en) 1998-02-23 2002-04-30 Marconi Commerce Systems Inc. Customer-sensitive dispenser using proximity sensing devices
US6639577B2 (en) 1998-03-04 2003-10-28 Gemstar-Tv Guide International, Inc. Portable information display device with ergonomic bezel
US6198515B1 (en) 1998-03-16 2001-03-06 Joseph W. Cole Apparatus and method for controlled sealing between bezel and CRT
US6130665A (en) 1998-04-01 2000-10-10 Telefonaktiebolaget Lm Ericsson Touch screen handling
US6313853B1 (en) 1998-04-16 2001-11-06 Nortel Networks Limited Multi-service user interface
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US5956291A (en) 1998-04-17 1999-09-21 Ductech, Llc Underwater diving assistant apparatus
US6278443B1 (en) 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
US6057540A (en) 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system
US6050825A (en) 1998-05-08 2000-04-18 Nichol; Claudia D. Opaque, one-size-fits-all computer keyboard cover which covers only the three or four alpha-numeric rows
US6473102B1 (en) 1998-05-11 2002-10-29 Apple Computer, Inc. Method and system for automatically resizing and repositioning windows in response to changes in display
KR100327209B1 (ko) 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US5977867A (en) 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP2000010705A (ja) 1998-06-17 2000-01-14 Nec Corp 出力イメージ変形方式および出力イメージ変形用プログラムを記録した記録媒体
JP3792920B2 (ja) 1998-12-25 2006-07-05 株式会社東海理化電機製作所 タッチ操作入力装置
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6347290B1 (en) 1998-06-24 2002-02-12 Compaq Information Technologies Group, L.P. Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device
JP3420504B2 (ja) 1998-06-30 2003-06-23 キヤノン株式会社 情報処理方法
US6131299A (en) 1998-07-01 2000-10-17 Faro Technologies, Inc. Display device for a coordinate measurement machine
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US7831930B2 (en) 2001-11-20 2010-11-09 Universal Electronics Inc. System and method for displaying a user interface for a remote control application
US6135958A (en) 1998-08-06 2000-10-24 Acuson Corporation Ultrasound imaging system with touch-pad pointing device
US6169538B1 (en) 1998-08-13 2001-01-02 Motorola, Inc. Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices
US7079114B1 (en) 1998-08-21 2006-07-18 Peter Smith Interactive methods for design of automobiles
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
US6359572B1 (en) 1998-09-03 2002-03-19 Microsoft Corporation Dynamic keyboard
US6271835B1 (en) 1998-09-03 2001-08-07 Nortel Networks Limited Touch-screen input device
ATE391329T1 (de) 1998-09-04 2008-04-15 Innovative Solutions & Support Flachbildschirm mit zwei cpu's für flugzeugcockpit
US7256770B2 (en) 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US6333753B1 (en) 1998-09-14 2001-12-25 Microsoft Corporation Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
US20020018051A1 (en) 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6292178B1 (en) 1998-10-19 2001-09-18 Allergan Sales, Inc. Screen navigation control apparatus for ophthalmic surgical instruments
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
US6229502B1 (en) 1998-11-03 2001-05-08 Cylark Development Llc Electronic book
US6874023B1 (en) 1998-11-10 2005-03-29 Claria Corporation Web based email control center for monitoring and providing a sumary of the detected event information organized according to relationships between the user and network sites
JP2000163444A (ja) 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
US6466036B1 (en) 1998-11-25 2002-10-15 Harald Philipp Charge transfer capacitance measurement circuit
JP2000163193A (ja) 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6154194A (en) 1998-12-03 2000-11-28 Ericsson Inc. Device having adjustable touch-based display of data
US6222465B1 (en) 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6246395B1 (en) 1998-12-17 2001-06-12 Hewlett-Packard Company Palm pressure rejection method and apparatus for touchscreens
US6259436B1 (en) 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6643824B1 (en) 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
US6535200B2 (en) 1999-01-25 2003-03-18 Harald Philipp Capacitive position sensor
EP1153404B1 (de) 1999-01-26 2011-07-20 QRG Limited Kapazitiver messwandler und anordnung
US6246862B1 (en) 1999-02-03 2001-06-12 Motorola, Inc. Sensor controlled user interface for portable communication device
JP2000231670A (ja) 1999-02-10 2000-08-22 Sharp Corp タッチパネル搭載の販売管理装置
US6295049B1 (en) 1999-03-03 2001-09-25 Richard T. Minner Computer system utilizing graphical user interface with hysteresis to inhibit accidental selection of a region due to unintended cursor motion and method
JP2000250697A (ja) 1999-03-03 2000-09-14 Yazaki Corp 多機能スイッチ装置における操作ボタンの機能表示方法及び多機能スイッチ装置
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
US6545670B1 (en) 1999-05-11 2003-04-08 Timothy R. Pryor Methods and apparatus for man machine interfaces and related activity
US6710771B1 (en) 1999-05-13 2004-03-23 Sony Corporation Information processing method and apparatus and medium
US6920500B2 (en) 1999-05-20 2005-07-19 Prosia Overseas, Inc. Method and apparatus for providing simplified access to the internet
EP1054321A3 (de) 1999-05-21 2002-06-19 Sony Corporation Informationsverarbeitungsverfahren und -vorrichtung
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US7151528B2 (en) 1999-06-22 2006-12-19 Cirque Corporation System for disposing a proximity sensitive touchpad behind a mobile phone keypad
US6525711B1 (en) 1999-06-24 2003-02-25 Interval Research Corp. Haptic interface including clutch control
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6337678B1 (en) 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
US6677934B1 (en) 1999-07-30 2004-01-13 L-3 Communications Infrared touch panel with improved sunlight rejection
US6489978B1 (en) 1999-08-06 2002-12-03 International Business Machines Corporation Extending the opening time of state menu items for conformations of multiple changes
US20020173721A1 (en) 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
GB9920301D0 (en) 1999-08-27 1999-11-03 Philipp Harald Level sensing
US7149893B1 (en) 1999-09-07 2006-12-12 Poofaway.Com, Inc. System and method for enabling the originator of an electronic mail message to preset an expiration time, date, and/or event, and to control processing or handling by a recipient
US6411287B1 (en) 1999-09-08 2002-06-25 Elo Touchsystems, Inc. Stress seal for acoustic wave touchscreens
US6377009B1 (en) 1999-09-08 2002-04-23 Harald Philipp Capacitive closure obstruction sensor
US6424338B1 (en) 1999-09-30 2002-07-23 Gateway, Inc. Speed zone touchpad
GB9924177D0 (en) 1999-10-12 1999-12-15 Srs Technology Limited Communication and control system
EP1094383A3 (de) 1999-10-18 2005-11-02 Honeywell International, Inc. Verfahren und Vorrichtung zur Kursorsteuerung
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US6757002B1 (en) 1999-11-04 2004-06-29 Hewlett-Packard Development Company, L.P. Track pad pointing device with areas of specialized function
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US6677933B1 (en) 1999-11-15 2004-01-13 Espial Group Inc. Method and apparatus for operating a virtual keyboard
US20020196227A1 (en) 1999-11-15 2002-12-26 Samuel Surloff Method and apparatus for providing simplified access to the internet
JP2001147918A (ja) 1999-11-24 2001-05-29 Casio Comput Co Ltd 情報表示装置及び情報表示処理プログラムを記憶した記憶媒体
US6920607B1 (en) 1999-12-15 2005-07-19 Microsoft Corp. Methods and systems for dynamically creating user interfaces
US6414674B1 (en) 1999-12-17 2002-07-02 International Business Machines Corporation Data processing system and method including an I/O touch pad having dynamically alterable location indicators
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6573844B1 (en) 2000-01-18 2003-06-03 Microsoft Corporation Predictive keyboard
US6654733B1 (en) 2000-01-18 2003-11-25 Microsoft Corporation Fuzzy keyboard
US6661920B1 (en) 2000-01-19 2003-12-09 Palm Inc. Method and apparatus for multiple simultaneously active data entry mechanisms on a computer system
US20020140633A1 (en) 2000-02-03 2002-10-03 Canesta, Inc. Method and system to present immersion virtual simulations using three-dimensional measurement
JP2001230992A (ja) 2000-02-18 2001-08-24 Nidec Copal Corp 画像表示装置及びその制御方法
US6798768B1 (en) 2000-02-23 2004-09-28 Lucent Technologies Inc. Multimedia call routing in an IP network
US6882641B1 (en) 2000-02-23 2005-04-19 Lucent Technologies Inc. Call center queue administration
US8712792B2 (en) 2000-02-24 2014-04-29 Webmd, Llc Personalized health communication system
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP3812274B2 (ja) 2000-03-17 2006-08-23 株式会社日立製作所 映像アクセス装置及び映像アクセスプログラムを記録した記録媒体
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
US6791467B1 (en) 2000-03-23 2004-09-14 Flextronics Semiconductor, Inc. Adaptive remote controller
US6543684B1 (en) 2000-03-28 2003-04-08 Ncr Corporation Transaction terminal with privacy shield for touch-screen pin entry
US6456952B1 (en) 2000-03-29 2002-09-24 Ncr Coporation System and method for touch screen environmental calibration
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6570584B1 (en) 2000-05-15 2003-05-27 Eastman Kodak Company Broad color gamut display
US6611252B1 (en) 2000-05-17 2003-08-26 Dufaux Douglas P. Virtual data input device
US20020044161A1 (en) 2000-05-22 2002-04-18 Kazuaki Sugai Multi-window display system and method for displaying video data and storage medium
US20020075317A1 (en) 2000-05-26 2002-06-20 Dardick Technologies System and method for an on-demand script-activated virtual keyboard
IL136652A0 (en) 2000-06-08 2001-06-14 Arlinsky David A closed-loop control system in a car
KR20010111166A (ko) 2000-06-08 2001-12-17 윤종용 휴대폰의 메뉴 아이콘 변경 방법 및 메뉴 구성 편집 방법
FI20001429A (fi) 2000-06-15 2001-12-16 Nokia Corp Vaihtoehdon valitseminen
US6442440B1 (en) 2000-06-24 2002-08-27 Dade Behring Inc. Computer interface module having a flat menu
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US8287374B2 (en) 2000-07-07 2012-10-16 Pryor Timothy R Reconfigurable control displays for games, toys, and other applications
JP4543513B2 (ja) 2000-07-17 2010-09-15 ソニー株式会社 双方向通信システム、表示装置、ベース装置および双方向通信方法
US6944591B1 (en) 2000-07-27 2005-09-13 International Business Machines Corporation Audio support system for controlling an e-mail system in a remote computer
US7856603B2 (en) 2000-08-17 2010-12-21 Moelgaard John Graphical user interface
JP4197220B2 (ja) 2000-08-17 2008-12-17 アルパイン株式会社 操作装置
DE10042300A1 (de) 2000-08-29 2002-03-28 Axel C Burgbacher Elektronisches Musikinstrument
US6480188B1 (en) 2000-09-06 2002-11-12 Digital On-Demand Thumbwheel selection system
JP2002157078A (ja) 2000-09-07 2002-05-31 Sony Corp 情報処理装置及び方法、並びに記録媒体
US6680677B1 (en) 2000-10-06 2004-01-20 Logitech Europe S.A. Proximity detector to indicate function of a key
US6421234B1 (en) 2000-10-10 2002-07-16 Juniper Systems, Inc. Handheld electronics device having ergonomic features
US6942571B1 (en) 2000-10-16 2005-09-13 Bally Gaming, Inc. Gaming device with directional and speed control of mechanical reels using touch screen
JP4284855B2 (ja) 2000-10-25 2009-06-24 ソニー株式会社 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
TW486657B (en) 2000-10-26 2002-05-11 Animeta Systems Inc Browser interface operation device and its browsing method
US6501464B1 (en) 2000-10-31 2002-12-31 Intel Corporation On-screen transparent keyboard interface
US6593916B1 (en) 2000-11-03 2003-07-15 James L. Aroyan Touchscreen having multiple parallel connections to each electrode in a series resistor chain on the periphery of the touch area
US6918091B2 (en) 2000-11-09 2005-07-12 Change Tools, Inc. User definable interface system, method and computer program product
US7319454B2 (en) 2000-11-10 2008-01-15 Microsoft Corporation Two-button mouse input using a stylus
US6903730B2 (en) 2000-11-10 2005-06-07 Microsoft Corporation In-air gestures for electromagnetic coordinate digitizers
US6703999B1 (en) 2000-11-13 2004-03-09 Toyota Jidosha Kabushiki Kaisha System for computer user interface
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20040036622A1 (en) 2000-12-15 2004-02-26 Semyon Dukach Apparatuses, methods, and computer programs for displaying information on signs
US7190348B2 (en) 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US6457834B1 (en) 2001-01-24 2002-10-01 Scram Technologies, Inc. Optical system for display panel
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
US6670894B2 (en) 2001-02-05 2003-12-30 Carsten Mehring System and method for keyboard independent touch typing
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US20070083823A1 (en) 2001-02-15 2007-04-12 Denny Jaeger Scroll bar for computer display
JP2002244781A (ja) 2001-02-15 2002-08-30 Wacom Co Ltd 入力システム、プログラム、及び、記録媒体
US20080024463A1 (en) 2001-02-22 2008-01-31 Timothy Pryor Reconfigurable tactile control display applications
US20080088587A1 (en) 2001-02-22 2008-04-17 Timothy Pryor Compact rtd instrument panels and computer interfaces
US7133531B2 (en) 2001-02-27 2006-11-07 Nissim Karpenstein Device using analog controls to mix compressed digital audio data
US7904358B2 (en) 2001-02-28 2011-03-08 Goldman Sachs & Co. Computerized interface for monitoring financial information and executing financial transactions
JP2002259036A (ja) 2001-02-28 2002-09-13 Sony Corp 情報処理装置及び情報処理方法、記録媒体並びにプログラム
US6806869B2 (en) 2001-03-02 2004-10-19 Seiko Epson Corporation Data processing system utilizing discrete operating device
US6543947B2 (en) 2001-03-14 2003-04-08 Lee Jose H. Keyboard having keys arranged in a pan configuration
US6621483B2 (en) 2001-03-16 2003-09-16 Agilent Technologies, Inc. Optical screen pointing device with inertial properties
GB2373596B (en) 2001-03-19 2003-02-12 Synigence Plc Apparatus for facilitating access to information
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
US6724366B2 (en) 2001-04-03 2004-04-20 Peter James Crawford Thumb actuated x-y input device
JP3597141B2 (ja) 2001-04-03 2004-12-02 泰鈞 温 情報入力装置及び方法、並びに携帯電話機及び携帯電話機の文字入力方法
TW504916B (en) 2001-04-24 2002-10-01 Inventec Appliances Corp Method capable of generating different input values by pressing a single key from multiple directions
US7168046B2 (en) 2001-04-26 2007-01-23 Lg Electronics Inc. Method and apparatus for assisting data input to a portable information terminal
US6965375B1 (en) 2001-04-27 2005-11-15 Palm, Inc. Compact integrated touch panel display for a handheld device
AU2002305392A1 (en) 2001-05-02 2002-11-11 Bitstream, Inc. Methods, systems, and programming for producing and displaying subpixel-optimized images and digital content including such images
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
US6992659B2 (en) 2001-05-22 2006-01-31 Palmone, Inc. High transparency integrated enclosure touch screen assembly for a portable hand held device
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US6904570B2 (en) 2001-06-07 2005-06-07 Synaptics, Inc. Method and apparatus for controlling a display of data on a display screen
US7308652B2 (en) 2001-06-08 2007-12-11 Lenovo Singapore Pte. Ltd Entry of a password through a touch-sensitive computer screen
US6975304B1 (en) 2001-06-11 2005-12-13 Handspring, Inc. Interface for processing of an alternate symbol in a computer device
JP2003005912A (ja) 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
US6583676B2 (en) 2001-06-20 2003-06-24 Apple Computer, Inc. Proximity/touch detector and calibration circuit
US7512964B2 (en) 2001-06-29 2009-03-31 Cisco Technology System and method for archiving multiple downloaded recordable media content
FI116591B (fi) 2001-06-29 2005-12-30 Nokia Corp Menetelmä ja laite toiminnon toteuttamiseksi
US20030001899A1 (en) 2001-06-29 2003-01-02 Nokia Corporation Semi-transparent handwriting recognition UI
US6670951B2 (en) 2001-07-03 2003-12-30 Hewlett-Packard Development Company, L.P. Methods and systems for increasing the input efficiency of personal digital assistants and other handheld stylus-engagable computing devices
US6478432B1 (en) 2001-07-13 2002-11-12 Chad D. Dyner Dynamically generated interactive real imaging device
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US6961912B2 (en) 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
US20030030664A1 (en) 2001-08-13 2003-02-13 Parry Travis J. Customizable control panel software
DE10140874A1 (de) 2001-08-21 2003-03-20 Dosch & Amand Gmbh & Co Kg Graphische Benutzeroberfläche
US6972749B2 (en) 2001-08-29 2005-12-06 Microsoft Corporation Touch-sensitive device for scrolling a document on a display
CN100339809C (zh) 2001-09-21 2007-09-26 联想(新加坡)私人有限公司 输入装置、计算机装置、输入对象的识别方法、软件键盘的输入对象识别方法
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
GB2380583A (en) 2001-10-04 2003-04-09 Ilam Samson Touch pad/screen for electronic equipment
KR20040048935A (ko) 2001-10-04 2004-06-10 엑스티엘 바이오파마수티칼즈 엘티디. 인간 모노클로날 항체를 이용한 비형 간염 바이러스감염의 치료
US20030071850A1 (en) 2001-10-12 2003-04-17 Microsoft Corporation In-place adaptive handwriting input method and system
US6728032B2 (en) 2001-10-17 2004-04-27 Infocus Corporation Rear projection display system
US8117565B2 (en) 2001-10-18 2012-02-14 Viaclix, Inc. Digital image magnification for internet appliance
US7046230B2 (en) 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
US7345671B2 (en) 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7084856B2 (en) 2001-10-22 2006-08-01 Apple Computer, Inc. Mouse having a rotary dial
GB2382292A (en) 2001-11-17 2003-05-21 Oliver Wallington Digital display with scrolling means
US7009599B2 (en) 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
US6762752B2 (en) 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method
US6938221B2 (en) 2001-11-30 2005-08-30 Microsoft Corporation User interface for stylus-based user input
US7083342B2 (en) 2001-12-21 2006-08-01 Griffin Jason T Keyboard arrangement
DE10251296A1 (de) 2002-11-03 2004-05-19 Trachte, Ralf, Dr. flexibles Engabesystem / Mehrfinger-System
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US6952203B2 (en) 2002-01-08 2005-10-04 International Business Machines Corporation Touchscreen user interface: Bluetooth™ stylus for performing right mouse clicks
US6977643B2 (en) 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US20030197736A1 (en) 2002-01-16 2003-10-23 Murphy Michael W. User interface for character entry using a minimum number of selection keys
US20030132922A1 (en) 2002-01-17 2003-07-17 Harald Philipp Touch screen detection apparatus
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US7075512B1 (en) 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
AUPS058602A0 (en) 2002-02-15 2002-03-14 Canon Kabushiki Kaisha Representing a plurality of independent data items
CA2476690A1 (en) 2002-02-26 2003-09-04 Cirque Corporation Touchpad having fine and coarse input resolution
US6900795B1 (en) 2002-02-27 2005-05-31 Knight, Iii Jack Unitary molded lens filter for touch screen interface
US6985801B1 (en) 2002-02-28 2006-01-10 Garmin International, Inc. Cockpit instrument panel systems and methods with redundant flight data display
JP3847641B2 (ja) 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US6832138B1 (en) 2002-02-28 2004-12-14 Garmin International, Inc. Cockpit instrument panel systems and methods with redundant flight data display
AU2003213780B2 (en) 2002-03-08 2008-03-13 Quantum Interface, Llc Electric device control apparatus
WO2003077073A2 (en) 2002-03-08 2003-09-18 Fleettrakker, L.L.C. Equipment tracking system and method
US7120872B2 (en) 2002-03-25 2006-10-10 Microsoft Corporation Organizing, editing, and rendering digital ink
US6927761B2 (en) 2002-03-29 2005-08-09 3M Innovative Properties Company Moisture deflector for capacitive NFI touch screens for use with bezels of conductive material
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US6658994B1 (en) 2002-04-10 2003-12-09 Chromalox, Inc. Modular assembly for a holding cabinet controller
US7466307B2 (en) 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US20030193481A1 (en) 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
JP2003316502A (ja) 2002-04-25 2003-11-07 Sony Corp 端末装置、文字入力方法
JP2003323259A (ja) 2002-05-02 2003-11-14 Nec Corp 情報処理装置
US7746325B2 (en) 2002-05-06 2010-06-29 3M Innovative Properties Company Method for improving positioned accuracy for a determined touch input
US7890865B2 (en) 2002-05-09 2011-02-15 Microsoft Corporation Methods and apparatuses for providing message information in graphical user interfaces based on user inputs
TWI238348B (en) 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US7051284B2 (en) 2002-05-16 2006-05-23 Microsoft Corporation Displaying information to indicate both the importance and the urgency of the information
JP3852368B2 (ja) 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
EP1505484B1 (de) 2002-05-16 2012-08-15 Sony Corporation Eingabeverfahren und eingabevorrichtung
US7069515B1 (en) 2002-05-21 2006-06-27 Claria Corporation Method and apparatus for displaying messages in computer systems
KR100941948B1 (ko) 2002-05-21 2010-02-11 코닌클리케 필립스 일렉트로닉스 엔.브이. 객체를 선택 및 입력하는 시스템, 객체 세트로부터 객체를 입력하는 방법, 및 이 방법을 구현하기 위한 소프트웨어 코드를 저장하기 위한 컴퓨터 판독가능 매체
JP2003338954A (ja) 2002-05-21 2003-11-28 Toshiba Corp デジタルスチルカメラ
US20030222977A1 (en) 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
FI20021162A0 (fi) 2002-06-14 2002-06-14 Nokia Corp Elektroninen laite ja menetelmä sen näppäimistön hallintaan
US7219308B2 (en) 2002-06-21 2007-05-15 Microsoft Corporation User interface for media player program
FI112119B (fi) 2002-06-25 2003-10-31 Nokia Corp Menetelmä ohjauskomennon tulkitsemiseksi ja kannettava elektroninen laite
US7307661B2 (en) 2002-06-26 2007-12-11 Vbk Inc. Multifunctional integrated image sensor and application to virtual interface technology
JP2004038896A (ja) 2002-06-28 2004-02-05 Clarion Co Ltd 表示制御手段
US7023427B2 (en) 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US7058902B2 (en) 2002-07-30 2006-06-06 Microsoft Corporation Enhanced on-object context menus
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US6896375B2 (en) 2002-08-16 2005-05-24 Infocus Corporation Rear projection display device having multiple mirrors that are substantially parallel to a screen
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
EP1394640B1 (de) 2002-08-30 2010-03-24 Asulab S.A. Uhr mit taktiler Ablesung und Betätigung der Zeitinformation
JP2004104594A (ja) 2002-09-11 2004-04-02 Toshiba Corp デジタルスチルカメラ及びユーザ指示入力方法
US7789756B2 (en) 2002-09-13 2010-09-07 Igt Wagering gaming device having simulated control of movement of game functional elements
US7331868B2 (en) 2002-09-13 2008-02-19 Igt Wagering gaming device providing physical stimulation responses to various components of the gaming device
JP2004110388A (ja) 2002-09-18 2004-04-08 Sharp Corp タッチパネルを有する装置
GB0222094D0 (en) 2002-09-24 2002-10-30 Koninkl Philips Electronics Nv Graphical user interface navigation method and apparatus
JP2004118917A (ja) 2002-09-25 2004-04-15 Clarion Co Ltd 電子機器及びナビゲーション装置
US8443045B2 (en) 2002-10-01 2013-05-14 Honda Motor Co., Ltd. Storage of selected e-mails including attachments in document management system
US20040080529A1 (en) 2002-10-24 2004-04-29 Wojcik Paul Kazimierz Method and system for securing text-entry in a web form over a computer network
US20040095311A1 (en) 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
KR101016981B1 (ko) 2002-11-29 2011-02-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 데이터 처리 시스템, 사용자로 하여금 데이터 처리 시스템과 대화하도록 하는 방법, 및 컴퓨터 프로그램 제품을 저장한 컴퓨터 판독가능 매체
AU2003302554A1 (en) 2002-11-29 2004-06-23 Gnvention Ltd. Interface device for portable storage media
CA2513153A1 (en) 2002-12-19 2004-07-15 Anders Trell Trust Computer input device
US7081887B2 (en) 2002-12-19 2006-07-25 Intel Corporation Method and apparatus for positioning a software keyboard
US7219829B2 (en) 2002-12-24 2007-05-22 Tracey Treat Carrier which is aesthetically irreversibly convertible from planar blank to closed package for coded card and methods for manufacture and use of the same
US6927763B2 (en) 2002-12-30 2005-08-09 Motorola, Inc. Method and system for providing a disambiguated keypad
WO2004064370A2 (en) 2003-01-08 2004-07-29 Silicon Optix Inc. Image projection system and method
US7895536B2 (en) 2003-01-08 2011-02-22 Autodesk, Inc. Layer editor system for a pen-based computer
US7337634B2 (en) 2003-01-09 2008-03-04 General Electric Company Washer/dryer touch sensitive graphical user interface
US7194699B2 (en) 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
US7149981B1 (en) 2003-01-16 2006-12-12 Sprint Spectrum L.P. Method and system for facilitating selection of a portion of non-focusable object presented by a browser application
US7098896B2 (en) 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US7305129B2 (en) 2003-01-29 2007-12-04 Microsoft Corporation Methods and apparatus for populating electronic forms from scanned documents
US20040145601A1 (en) 2003-01-29 2004-07-29 International Business Machines Corporation Method and a device for providing additional functionality to a separate application
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7158123B2 (en) 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US20040150669A1 (en) 2003-01-31 2004-08-05 Sabiers Mark L. Graphical user interface for describing the state of a managed system
EP1445922A1 (de) 2003-02-06 2004-08-11 Dialog Semiconductor GmbH Monolithisch integrierte optische Leseschaltung
US20040155888A1 (en) 2003-02-11 2004-08-12 Padgitt David Gary Method for displaying the contents of a collection of media objects
US20040160419A1 (en) 2003-02-11 2004-08-19 Terradigital Systems Llc. Method for entering alphanumeric characters into a graphical user interface
JP3844076B2 (ja) 2003-03-07 2006-11-08 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7103852B2 (en) 2003-03-10 2006-09-05 International Business Machines Corporation Dynamic resizing of clickable areas of touch screen applications
US20040183833A1 (en) 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP2213501A3 (de) 2003-03-31 2012-05-09 Timothy R. Pryor Rekonfigurierbare Fahrzeugarmaturenbretter
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7884804B2 (en) 2003-04-30 2011-02-08 Microsoft Corporation Keyboard with input-sensitive display device
CA2426867A1 (en) 2003-04-30 2004-10-30 Naviform Holdings Ltd. Customizable keyboard
US7233316B2 (en) 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US8555165B2 (en) 2003-05-08 2013-10-08 Hillcrest Laboratories, Inc. Methods and systems for generating a zoomable graphical user interface
US8479112B2 (en) 2003-05-13 2013-07-02 Microsoft Corporation Multiple input language selection
US7302642B2 (en) 2003-06-03 2007-11-27 Tim Simon, Inc. Thermostat with touch-screen display
US7475390B2 (en) 2004-01-12 2009-01-06 International Business Machines Corporation System and method for automatic natural language translation during information transfer
US7310781B2 (en) 2003-06-05 2007-12-18 International Business Machines Corporation System and method for content and information transfer between program entities
JP2006527439A (ja) 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
JP3938104B2 (ja) 2003-06-19 2007-06-27 ヤマハ株式会社 アルペジオパターン設定装置およびプログラム
US20040263484A1 (en) 2003-06-25 2004-12-30 Tapio Mantysalo Multifunctional UI input device for moblie terminals
US7474772B2 (en) 2003-06-25 2009-01-06 Atrua Technologies, Inc. System and method for a miniature user input device
US7057607B2 (en) 2003-06-30 2006-06-06 Motorola, Inc. Application-independent text entry for touch-sensitive display
US8373660B2 (en) 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US20050015731A1 (en) 2003-07-15 2005-01-20 Microsoft Corporation Handling data across different portions or regions of a desktop
US7499040B2 (en) 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
US20060181517A1 (en) 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005108041A (ja) 2003-09-30 2005-04-21 Toshiba Corp 携帯端末のメニュー画面表示方法及び携帯端末
US7209116B2 (en) 2003-10-08 2007-04-24 Universal Electronics Inc. Control device having integrated mouse and remote control capabilities
US20050091577A1 (en) 2003-10-23 2005-04-28 International Business Machines Corporation Information integration system
US7478336B2 (en) 2003-11-06 2009-01-13 International Business Machines Corporation Intermediate viewer for transferring information elements via a transfer buffer to a plurality of sets of destinations
US6970749B1 (en) 2003-11-12 2005-11-29 Adobe Systems Incorporated Grouped palette stashing
US7495659B2 (en) 2003-11-25 2009-02-24 Apple Inc. Touch pad for handheld device
GB2402650B (en) 2003-12-31 2006-05-10 Research In Motion Ltd Keyboard arrangement
US7346853B2 (en) 2004-01-12 2008-03-18 International Business Machines Corporation Online learning monitor
US7340685B2 (en) 2004-01-12 2008-03-04 International Business Machines Corporation Automatic reference note generator
WO2005069114A1 (ja) 2004-01-15 2005-07-28 Vodafone K.K. 移動体通信端末
US20050162402A1 (en) 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US7697729B2 (en) 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
US6856259B1 (en) 2004-02-06 2005-02-15 Elo Touchsystems, Inc. Touch sensor system to detect multiple touch events
US7545784B2 (en) 2004-02-11 2009-06-09 Yahoo! Inc. System and method for wireless communication between previously known and unknown users
US20050190970A1 (en) 2004-02-27 2005-09-01 Research In Motion Limited Text input system for a mobile electronic device and methods thereof
EP1569079B1 (de) 2004-02-27 2013-05-15 Research In Motion Limited Texteingabesystem sowie -verfahren für ein elektronisches Mobilgerät
US7607576B2 (en) 2004-02-27 2009-10-27 Gilbarco, Inc. Local zone security architecture for retail environments
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US20050204008A1 (en) 2004-03-09 2005-09-15 Marc Shinbrood System and method for controlling the downstream preservation and destruction of electronic mail
US7183476B2 (en) 2004-03-18 2007-02-27 Swingle Margaret J Portable electronic music score device for transporting, storing displaying, and annotating music scores
US7180502B2 (en) 2004-03-23 2007-02-20 Fujitsu Limited Handheld device with preferred motion selection
US7777730B2 (en) 2004-05-05 2010-08-17 Koninklijke Philips Electronics N.V. Browsing media items
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
EP1769326A2 (de) 2004-06-29 2007-04-04 Koninklijke Philips Electronics N.V. Verfahren und einrichtung zur verhinderung einer verunreinigung einer anzeigeeinrichtung
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060007174A1 (en) 2004-07-06 2006-01-12 Chung-Yi Shen Touch control method for a drag gesture and control module thereof
US7398472B2 (en) 2004-07-09 2008-07-08 Microsoft Corporation Defining the visual appearance of user-interface controls
US7664748B2 (en) 2004-07-12 2010-02-16 John Eric Harrity Systems and methods for changing symbol sequences in documents
US20060012577A1 (en) 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays
AU2005269406A1 (en) 2004-07-28 2006-02-09 Newton Peripherals, Llc Peripheral devices for portable computer
AU2005256105B8 (en) * 2004-07-30 2008-10-02 Blackberry Limited Method and apparatus for provisioning a communications client on a host device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
KR100984596B1 (ko) 2004-07-30 2010-09-30 애플 인크. 터치 감지 입력 장치용 제스처
US7599044B2 (en) 2005-06-23 2009-10-06 Apple Inc. Method and apparatus for remotely detecting presence
EP1774427A2 (de) 2004-07-30 2007-04-18 Apple Computer, Inc. Auf modus basierende graphische benutzeroberflächen für berührungsempfindliche eingabeeinrichtungen
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
KR100737558B1 (ko) 2004-08-16 2007-07-10 주식회사 팬택앤큐리텔 선호도를 이용한 수신알림 레벨 제어 기능을 가지는무선통신 단말기 및 그 방법
CN100555200C (zh) 2004-08-16 2009-10-28 苹果公司 触敏器件和提高触敏器件的空间分辨率的方法
US20060044280A1 (en) 2004-08-31 2006-03-02 Huddleston Wyatt A Interface
US20100231506A1 (en) 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
US7719522B2 (en) 2004-09-24 2010-05-18 Apple Inc. Raw data track pad device and system
US20060066590A1 (en) 2004-09-29 2006-03-30 Masanori Ozawa Input device
US20060071915A1 (en) 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
US7454717B2 (en) 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US7242311B2 (en) 2004-10-29 2007-07-10 Caterpillar Inc. Method and system for providing work machine multi-functional user interface
US7489306B2 (en) 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US7617283B2 (en) 2005-01-10 2009-11-10 International Business Machines Corporation System and method for instant messaging
US20060181519A1 (en) 2005-02-14 2006-08-17 Vernier Frederic D Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups
US7605804B2 (en) 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
US7487461B2 (en) 2005-05-04 2009-02-03 International Business Machines Corporation System and method for issuing commands based on pen motions on a graphical keyboard
US8185841B2 (en) 2005-05-23 2012-05-22 Nokia Corporation Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen
US20070011603A1 (en) 2005-07-06 2007-01-11 Mikko Makela Method, system, device and software product for showing tooltips for page segments and generating content for the page segments
WO2007016370A2 (en) 2005-07-29 2007-02-08 Eazypaper Inc. Computer method and apparatus using embedded message window for displaying messages in a functional bar
WO2007025119A2 (en) 2005-08-26 2007-03-01 Veveo, Inc. User interface for visual cooperation between text input and display device
US7443316B2 (en) 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US8819144B2 (en) 2005-10-14 2014-08-26 Blackberry Limited Method, device, software and graphical user interface for forwarding messages between message handling services
US8745140B2 (en) 2005-10-14 2014-06-03 Blackberry Limited System and method of handling messages for forwarding
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US8139028B2 (en) 2006-02-01 2012-03-20 Synaptics Incorporated Proximity sensor and method for indicating extended interface results
EP1816573A1 (de) 2006-02-02 2007-08-08 Nextair Corporation Vorrichtung, Verfahren und maschinenlesbares Medium zur Erstellung eines Markup-Language-Dokuments mit identischen Markup-Language-Elementsätzen
US7529795B2 (en) 2006-03-20 2009-05-05 Stragent, Llc Message board aggregator
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US7511702B2 (en) 2006-03-30 2009-03-31 Apple Inc. Force and location sensitive display
US7978181B2 (en) 2006-04-25 2011-07-12 Apple Inc. Keystroke tactility arrangement on a smooth touch surface
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US7765494B2 (en) 2006-05-24 2010-07-27 Sap Ag Harmonized theme definition language
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US8694895B2 (en) 2007-02-05 2014-04-08 Microsoft Corporation Human interaction with application from email client
US8209619B2 (en) 2007-03-16 2012-06-26 Oracle International Corporation Non-linear navigation in discussion forums
US9740386B2 (en) 2007-06-13 2017-08-22 Apple Inc. Speed/positional mode translations
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US20090064006A1 (en) 2007-08-30 2009-03-05 Indran Naick Techniques for Performing Tasks Associated with Custom Folder Controls
JP5533254B2 (ja) 2010-05-24 2014-06-25 アイシン・エィ・ダブリュ株式会社 情報表示装置、情報表示方法及びプログラム
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
WO2014043275A1 (en) 2012-09-11 2014-03-20 Apple Inc. Gesturing with a multipoint sensing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008051051A1 (de) * 2008-09-03 2010-03-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von Information in einem Fahrzeug
WO2013092288A1 (de) 2011-12-22 2013-06-27 Bauhaus-Universität Weimar Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
DE102011056940A1 (de) 2011-12-22 2013-06-27 Bauhaus Universität Weimar Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE102014111749A1 (de) * 2014-08-18 2016-02-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum Steuern eines technischen Gerätes

Also Published As

Publication number Publication date
TW200847001A (en) 2008-12-01
WO2008094791A3 (en) 2008-11-27
CN101636711A (zh) 2010-01-27
HK1109023A2 (en) 2008-05-30
US20080036743A1 (en) 2008-02-14
AU2008210864A1 (en) 2008-08-07
US9292111B2 (en) 2016-03-22
WO2008094791A2 (en) 2008-08-07
TWM350737U (en) 2009-02-11
AU2008100085A4 (en) 2008-03-06
JP2010517197A (ja) 2010-05-20
EP2115560A2 (de) 2009-11-11
WO2008094791A9 (en) 2008-09-18

Similar Documents

Publication Publication Date Title
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
US9239673B2 (en) Gesturing with a multipoint sensing device
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE202005021492U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE112010003602T5 (de) System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät
DE202007014957U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE202008000261U1 (de) Vielfach-Berührungsdatenfussionssystem
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE202007013923U1 (de) Mehrfachereignis-Eingabesystem
DE202009018624U1 (de) Berührungsereignismodell
DE202007018368U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE202009018283U1 (de) Karten-Metapher für Aktivitäten in einem Rechengerät
DE202009018404U1 (de) Erweiterter berührungsempfindlicher Steuerbereich für ein elektronisches Gerät
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
Corsten et al. Use the Force Picker, Luke: Space-Efficient Value Input on Force-Sensitive Mobile Touchscreens
WO2014043275A1 (en) Gesturing with a multipoint sensing device
AU2016238971B2 (en) Gesturing with a multipoint sensing device
AU2014201419B2 (en) Gesturing with a multipoint sensing device

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080814

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20110209

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140130

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right