DE202008001338U1 - Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung - Google Patents
Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung Download PDFInfo
- Publication number
- DE202008001338U1 DE202008001338U1 DE202008001338U DE202008001338U DE202008001338U1 DE 202008001338 U1 DE202008001338 U1 DE 202008001338U1 DE 202008001338 U DE202008001338 U DE 202008001338U DE 202008001338 U DE202008001338 U DE 202008001338U DE 202008001338 U1 DE202008001338 U1 DE 202008001338U1
- Authority
- DE
- Germany
- Prior art keywords
- gesture
- block
- finger
- touch
- electronic system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
Elektronisches
System umfassend:
eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt;
ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.
eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt;
ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.
Description
- Die vorliegende Erfindung bezieht sich allgemein auf ein elektronisches System mit Mehrpunkt-Abtastvorrichtung.
- Es gibt heute mehrere Arten von Eingabevorrichtungen zum Durchführen von Operationen in einem Computersystem. Die Operationen entsprechen im Allgemeinen dem Bewegen eines Cursors und dem Anwählen auf einem Anzeigebildschirm. Die Operationen können auch blättern, scrollen, schwenken, zoomen usw. umfassen. Zum Beispiel können die Eingabevorrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln, Berührungsfelder, Joysticks, Berührungsbildschirme und ähnliches umfassen. Jede dieser Vorrichtungen hat Vorteile und Nachteile, die berücksichtigt werden müssen, wenn das Computersystem entworfen wird.
- Mit Berührungsfeldern entspricht die Bewegung des Eingabezeigers den relativen Bewegungen des Fingers (oder Stifts) des Benutzers, wenn der Finger entlang seiner Oberfläche des Berührungsfeldes bewegt wird. Berührungsbildschirme andererseits sind eine Art von Anzeigebildschirm, der ein berührungsempfindliches durchsichtiges Feld hat, das den Bildschirm bedeckt. Wenn er einen Berührungsbildschirm verwendet, macht ein Benutzer eine Auswahl auf dem Anzeigebildschirm durch direktes Zeigen auf GUI Objekte auf dem Bildschirm (normalerweise mit einem Stift oder Finger). Im Allgemeinen erkennt die Berührungsvorrichtung die Berührung und die Position der Berührung, und das Computersystem interpretiert die Berührung und führt danach eine Aktion auf der Grundlage des Berührungsereignisses durch.
- Um zusätzliche Funktionalität zur Verfügung zu stellen, wurden Gesten mit einigen dieser Eingabevorrichtungen implementiert. Zum Beispiel können in Berührungsfeldern Anwahlen gemacht werden, wenn ein oder mehrfaches Tippen auf der Oberfläche des Berührungsfeldes detektiert wird. In manchen Fällen kann auf jedem Abschnitt des Berührungsfeldes getippt werden, und in anderen Fällen kann auf einen bestimmten Abschnitt des Berührungsfeldes getippt werden. Über Anwahlen hinaus kann Scrollen durch Verwendung einer Fingerbewegung am Rand des Berührungsfeldes veranlasst werden.
- Leider ist Gestikulieren stark durch die Tatsache beschränkt, dass die meisten Berührungstechnologien nur in der Lage sind, einen einzigen Punkt zu berichten, selbst wenn mehrere Objekte auf der Abtastoberfläche platziert sind. Das heißt sie entbehren der Fähigkeit, mehrere Kontaktpunkte gleichzeitig nachzuverfolgen. In Widerstands- und Kapazitätstechnologien wird ein Durchschnitt aller gleichzeitig auftretenden Berührungspunkte bestimmt und ein einziger Punkt, der irgendwo zwischen die Berührungspunkte fällt, wird berichtet. In Oberflächenwellen- und Infrarottechnologien ist es wegen Maskierung unmöglich, die exakte Position von mehreren Berührungspunkten zu unterscheiden, die auf dieselbe horizontale oder vertikale Linie fallen. In beiden Fällen werden fehlerhafte Ergebnisse erzeugt.
- Auf der Grundlage des oben gesagten gibt es einen Bedarf für Mehrpunkt-Abtastvorrichtungen und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen.
- Die Erfindung bezieht sich in einer Ausführungsform auf ein elektronisches System. Das elektronische System umfasst eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunkt-Abtastgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt. Das elektronische System umfasst auch ein Gestenmodul, das konfiguriert ist, um einen Satz an Gesten für eine gegebene Eingabeanordnung zu bestimmen, die durch das Mehrpunkt-Abtastgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, um die gegebene Eingabeanordnung für ein oder mehrere Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen auszulösen, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung ausgeführt wird. Die Eingabeanordnung kann z. B. eine Anordnung von Fingern und/oder anderen Teilen der Hand sein.
- Ein Gestensteuerungsverfahren umfasst Detektieren mehrerer Punkte innerhalb eines Abtastgebiets zur gleichen Zeit. Das Verfahren umfasst auch Bestimmen eines Akkords, wenn ein oder mehrere Punkte innerhalb des Abtastgebiets detektiert werden. Der Akkord ist eine spezielle Anordnung von Punkten innerhalb des Abtastgebiets. Das Verfahren umfasst weiterhin Bestimmen eines Gestensatzes, der Befehle mit einem oder mehreren Gestenereignissen verbindet. Das Verfahren umfasst weiterhin Überwachen von Punkten für Gestenereignisse. Weiterhin umfasst das Verfahren Ausführen eines Befehls, der mit dem Gestenereignis in Verbindung steht, wenn ein Gestenereignis erkannt wird.
- Eine Steueroperation umfasst Detektieren einer Berührung oder Beinahe-Berührung. Die Operation umfasst auch Bestimmen eines Gestensatzes für Berührung. Der Gestensatz umfasst ein oder mehrere Gestenereignisse zum Auslösen oder Einleiten eines Befehls. Die Operation umfasst weiterhin Überwachen der Berührung für ein Gestenereignis. Die Operation umfasst zusätzlich Einleiten eines Befehls, wenn ein Gestenereignis, das mit der Geste assoziiert ist, ausgeführt wird.
- Eine Gestenoperation umfasst Überwachen einer Berührungsbewegung. Die Operation umfasst auch Unterscheiden der Berührungsbewegung zwischen einem ersten und zweiten Zustand. Die Operation umfasst weiterhin Durchführen einer ersten Aktion, wenn die Berührungsbewegung mit dem ersten Zustand assoziiert wird. Die Operation umfasst zusätzlich Durchführen einer zweiten Aktion, wenn die Berührung mit dem zweiten Zustand assoziiert wird.
- Eine weitere Steueroperation umfasst zur Verfügung stellen einer ersten Eingabevorrichtung und einer zweiten Eingabevorrichtung, die von der ersten Eingabevor richtung verschieden ist. Die erste Eingabevorrichtung umfasst eine Objektabtastungsvorrichtung wie etwa eine Berührungsabtastungsvorrichtung zum Liefern von Eingabeereignissen. Die Operation umfasst auch Überwachen der ersten Eingabevorrichtung nach Eingabeereignissen. Die Operation umfasst weiterhin simultanes Überwachen der zweiten Eingabevorrichtung nach Eingabeereignissen. Die Operation umfasst drüber hinaus Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der ersten Eingabevorrichtung assoziiert sind. Weiterhin umfasst das Verfahren gleichzeitiges Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der zweiten Eingabevorrichtung assoziiert sind.
- Eine Steueroperation liefert eine Liste von Eingabefunktionen. Die Eingabefunktionen haben Befehle und Gestenereignisse, die mit den Befehlen verbunden sind. Die Befehle stehen mit der Eingabefunktion in Verbindung. Die Operation umfasst auch Zuordnen von Eingabefunktionen zu Akkorden. Die Operation umfasst darüber hinaus das Verbinden einer Eingabefunktion mit einem Akkord, wenn der Akkord erkannt wird.
- Ein Steuerfeld umfasst Anzeigen eines Menüs von Eingabefunktionen. Das Steuerfeld umfasst auch Anzeigen eines Gestensatzes, der Befehle zeigt, die mit einer ausgewählten Eingabefunktion assoziiert sind, und Gestenereignisse, die den Befehlen zugeordnet sind. Die Steueroperation umfasst weiterhin Anzeigen einer Liste von Akkorden. Um eine Gestenzuordnung einzurichten, wählt ein Benutzer eine gewünschte Eingabefunktion aus einer Liste von Eingabefunktionen und wählt einen gewünschten Akkord aus der Liste von Akkorden.
- Ein Gestenentwurfsverfahren umfasst zur Verfügung stellen einer Liste von Akkorden und Anordnen der Akkorde vom Einfachsten bis zum Schwierigsten. Das Entwurfsverfahren umfasst auch Anordnen der Frequenz von Operationen von am häufigsten bis am wenigsten häufig. Das Entwurfsverfahren umfasst weiterhin Zuordnen der einfachsten Akkorde mit den häufigsten Operationen und Zuordnen der schwierigsten Akkorde mit den seltensten Operationen. Das Entwurfsverfah ren kann zusätzlich Feineinstellung von Akkord-/Operationsgruppierung umfassen.
- Eine Gestenoperation umfasst das Detektieren eines ersten Fingers. Die Gestenoperation umfasst auch Bestimmen des Zustands des Fingers. Der Zustand des Fingers kann z. B. bewegend oder fest stehend sein. Die Gestenoperation umfasst weiterhin Detektieren eines oder mehrerer zusätzlicher Finger. Zum Beispiel kann ein zweiter Finger detektiert werden. Die Gestenoperation umfasst darüber hinaus Bestimmen des Zustands der zusätzlichen Finger. Der Zustand der zusätzlichen Finger kann z. B. sein, dass sie anwesend sind, oder nicht. Weiterhin umfasst das Verfahren Implementieren verschiedener Eingabemodi, die auf der zeitlichen Zuordnung von Zuständen des ersten und der zusätzlichen Finger relativ zueinander basieren. Die verschiedenen Modi können z. B. Zeigemodi, Ziehmodi und ähnliche sein.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die Erfindung wird leicht durch die folgende detaillierte Beschreibung in Verbindung mit den angehängten Zeichnungen verstanden werden, wobei gleiche Beziehungszeichen gleiche strukturelle Elemente bezeichnen, und in denen:
-
1 eine illustrative Gestensteueroperation zeigt; -
2 eine illustrative Steueroperation zeigt; -
3 eine illustrative Steueroperation zeigt; -
4 eine illustrative Steueroperation zeigt; -
5 eine illustrative Steueroperation zeigt; -
6 eine illustrative Steueroperation zeigt; -
7 eine illustrative Gestenoperation zeigt; -
8 eine illustrative Gestenoperation zeigt; -
9 eine illustrative Gestenoperation zeigt; -
10 eine illustrative Gestenoperation zeigt; -
11 eine illustrative Gestenoperation zeigt; -
12 eine illustrative Gestenoperation zeigt; -
13 eine illustrative Gestenoperation zeigt; -
14 eine illustrative Gestenoperation zeigt; -
15 eine illustrative Gestenoperation zeigt; -
16 eine illustrative Gestenoperation zeigt; -
17 eine illustrative Gestenoperation zeigt; -
18 eine illustrative Gestenoperation zeigt; -
19 eine illustrative Gestenoperation zeigt; -
20 eine illustrative Steueroperation zeigt; -
21 eine illustrative Steueroperation zeigt; -
22 eine illustrative Steueroperation zeigt; -
23 eine illustrative Steueroperation zeigt; -
24 eine illustrative Steueroperation zeigt; -
25 eine illustrative Steueroperation zeigt; -
26 eine illustrative Steueroperation zeigt; -
27 eine illustrative Steueroperation zeigt; -
28 eine illustrative Steueroperation zeigt; -
29A bis G Diagramme eines illustrativen Steuerfeldes zeigen; -
30 eine illustrative Steueroperation zeigt; -
31 ein illustratives Verfahren zum Gestenzuordnen zeigt; -
32 ein illustratives Gestenzuordnungsverfahren zeigt; -
33 ein illustratives Verfahren zur Gestenrückführung zeigt; -
34 ein illustratives Diagramm eines Gestenbetrachtungsfensters zeigt; -
35 ein illustratives Tastaturverfahren, das über einen Berührungsbildschirm implementiert wird, zeigt; -
36 ein illustratives Gestenentwurfsverfahren zeigt; -
37 eine illustrative Matrix zum Bewerten von Akkorden zeigt; -
38 eine illustrative Matrix zum Auflisten der Operationshäufigkeit für ein paar Operationen zeigt; -
39 eine illustrative Steueroperation zeigt; -
40 eine illustrative Steueroperation zeigt; -
41 eine illustrative Steueroperation zeigt; -
42 ein illustratives Diagramm einer Gestentafel zeigt; -
43 ein Diagramm einer Gestentafel ist; -
44 ein Diagramm einer Gestentafel ist; -
45 ein Diagramm eines Gestensatzes ist; -
46 ein Diagramm eines Gestensatzes ist; -
47 ein Diagramm eines Gestensatzes ist; -
48 ein Diagramm eines Gestensatzes ist; -
49 eine illustrative Gestenoperation zeigt; -
50 eine illustrative Gestenoperation zeigt; -
51 eine illustrative Gestenoperation zeigt; -
52 eine illustrative Gestenoperation zeigt; -
53 eine illustrative Gestenoperation zeigt; -
54 ein illustratives Blockdiagramm eines elektronischen Systems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung zeigt. - Gesten und Verfahren des Implementierens von Gesten mit Abtastvorrichtungen werden offenbart. Genauer werden Gesten und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen offenbart. Mehrpunkt-Abtastvorrichtungen haben eine Reihe von Vorteilen gegenüber herkömmlichen Einzelpunktvorrichtungen, dadurch, dass sie mehr als ein Objekt (Finger) gleichzeitig oder fast gleichzeitig unterscheiden können. In den meisten Fällen überwachen Mehrpunkt-Abtastvorrichtungen und Systeme, die solche Vorrichtungen verwenden, eine Oberfläche bezüglich eines Berührungs- oder Fast-Berührungsereignisses. Wenn solch ein Ereignis auftritt, kann sie das/die unterschiedliche(n) Kontaktgebiet(e) bestimmen und die Art der Ereignisse über ihre geometrischen Merkmale und ihre geometrische Anordnung identifizieren. Sobald sie identifiziert sind, werden Berührungs- oder Fast-Berührungsereignisse überwacht, um zu bestimmen, ob sie mehreren Gestenereignissen entsprechen.
- Ein Gestenereignis kann als eine stilisierte Interaktion der Abtastoberfläche definiert werden, die einer oder mehreren speziellen Berechnungsoperationen zuge ordnet wird. Gestenereignisse können durch verschiedene Hand-, insbesondere Finger-Bewegungen, Tippen, Drücke, Verweilzeiten und/oder ähnliches gemacht werden. Da die Oberfläche auf Mehrpunkttechnologie basiert, kann komplexes Gestikulieren mit jeder beliebigen Anzahl an Fingern oder anderen Kontaktabschnitten der Hand durchgeführt werden. In der Tat kann daher eine große Gestensprache entwickelt werden, die analog zur Zeichensprache ist. Gestensprache (oder Abbildung) kann z. B. einen Befehlssatz umfassen, der eine Kontaktanordnung (z. B. Akkorde) erkennt, das Auftreten von Gestenereignissen (z. B. Bewegungen) erkennt und einen oder mehrere Softwareagenten über die Gestenereignisse informiert und/oder darüber, welche Aktion(en) als Antwort auf die Gestenereignisse durchzuführen ist/sind. Beispiele für Mehrpunktgestikulieren kann z. B. in den U.S. Patentanmeldungen Nr. 10/903,964, 11/038,590 und 11/015,434 gefunden werden, die alle hierin per Verweis mit eingebunden werden.
- Ein weites Feld von verschiedenen Gesten kann mit Mehrpunkt-Abtastvorrichtungen verwendet werden. Zum Beispiel kann eine Geste eine Einzelpunkt- oder eine Mehrpunktgeste sein; eine statische oder dynamische Geste, eine kontinuierliche oder segmentierte Geste; und/oder ähnliches. Einzelpunktgesten sind diejenigen Gesten, die mit einem einzigen Kontaktpunkt ausgeführt werden, z. B. wird die Geste mit einer einzigen Berührung als beispielsweise von einem einzigen Finger, einer Handfläche oder einem Stift durchgeführt. Mehrpunktgesten sind diejenigen Gesten, die mit mehreren Punkten durchgeführt werden können, z. B. wird die Geste mit mehreren Berührungen, wie beispielsweise von mehreren Fingern, Fingern und Handflächen, einem Finger und einem Stift, mehreren Stiften und/oder irgendeiner Kombination davon durchgeführt werden. Statische Gesten können diejenigen Gesten sein, die im Wesentlichen keine Gestenereignisse (z. B. Akkorde) umfassen, und dynamische Gesten können diejenigen Gesten sein, die signifikante Gestenereignisse (z. B. Bewegungen, Tippen usw.) umfassen.
- Kontinuierliche Gesten können diejenigen Gesten sein, die in einem einzigen Zug durchgeführt werden, und segmentierte Gesten können diejenigen Gesten sein, die in einer Abfolge von unterschiedlichen Schritten oder Zügen durchgeführt werden. Obwohl hier mehrere Beispiele gegeben werden, sollte erkannt werden, dass dies beispielhaft und nicht zur Beschränkung ist.
- Mehrpunkt-Abtastvorrichtungen können auf verschiedene Weisen implementiert werden, einschließlich – aber nicht beschränkt auf – Standardgrößen-Berührfelder, große erweiterte Handflächenfelder, Berührungsbildschirme, berührungsempfindliche Gehäuse, usw. Weiterhin können Mehrpunkt-Abtastvorrichtungen auf vielen Formfaktoren angebracht werden, einschließlich – aber nicht beschränkt auf – Tablettcomputer, Laptopcomputer, Desktopcomputer sowie handgehaltene Computervorrichtungen wie etwa Mediumabspieler, PDA's, Mobiltelefone und ähnliches. Die Mehrpunkt-Abtastvorrichtungen können auch auf dedizierten Eingabegeräten wie etwa Berührungsbildschirmmonitoren, Tastaturen, Navigationsfeldern, Tabletts, Mäusen und ähnlichen gefunden werden. Beispiele für Mehrpunkt-Abtastvorrichtungen können in den U.S. Patentanmeldungen Nr. 10/840,862, 10/927,575 gefunden werden, die hier alle per Verweis mit eingebunden werden.
- Mehrere Ausführungsformen werden jetzt unten unter Bezugnahme auf die
1 bis54 diskutiert werden. Die Fachleute werden jedoch leicht erkennen, dass die hierin gegebene detaillierte Beschreibung in Bezug auf diese Figuren nur zu Erklärungszwecken dient, da sich die Erfindung über diese beschränkten Ausführungsformen hinaus erstreckt. -
1 zeigt die illustrative Gestensteueroperation10 . Die Operation10 kann bei Block12 beginnen, wo eine Mehrpunkt-Abtastvorrichtung zur Verfügung gestellt wird. Die Mehrpunkt-Abtastvorrichtung ist in der Lage, mehrere Kontakt- oder Fast-Kontaktpunkte gleichzeitig zu detektieren. Die Mehrpunkt-Abtastvorrichtung kann z. B. eine Mehrpunkt-Abtastoberfläche umfassen, die in der Lage ist, simultan mehrere Objekte auf der Berührungsoberfläche abzutasten. Alternativ oder zusätzlich kann die Mehrpunkt-Abtastvorrichtung Fähigkeiten des Abtastens von Objekten umfassen, die in großer Nähe zu einer Oberfläche sind, aber die Oberfläche nicht berühren (z. B. Nähe Abtastung). Die Mehrpunkt-Abtastvorrichtung kann als ein Berührungsbildschirm, Berührungsfeld, eine berührungsempfindliche Handflächenablage, ein berührungsempfindliches Gehäuse und/ähnliches implementiert werden. - Dem Block
12 folgend kann die Operation nach Block14 übergehen, wo eine Bestimmung gemacht wird, ob eine Berührung oder Fast-Berührung durch die Mehrpunkt-Abtastvorrichtung detektiert wird. Wenn keine Berührung detektiert wird, kann die Operation warten. Wenn eine Berührung detektiert wird, kann die Operation zu Block16 weitergehen, wo ein Akkord bestimmt wird, der mit der Berührung assoziiert ist. Ein Akkord kann z. B. eine bestimmte Anordnung von Kontakten oder Fast-Kontakten sein, die irgendeiner Eingabefunktionalität zugeordnet ist. Im Allgemeinen werden, wenn Objekte nahe oder auf einer berührungsempfindlichen Oberfläche platziert werden, Kontaktstellen erzeugt, und diese Kontaktstellen bilden ein Muster, das identifiziert werden kann. Das Muster kann mit irgendeiner Auswahl von Objekten gemacht werden, einschließlich z. B. mechanischen Merkmalen wie etwa Stiften oder Stempeln und/oder Abschnitten einer oder mehrerer Hände, wie etwa Finger, Daumen, Handfläche, Knöchel usw. - Der Akkord kann stark variieren und kann von vielen Faktoren abhängen, einschließlich der Größe der Berührungsoberfläche, ob die Berührungsoberfläche ein Berührungsbildschirm oder ein Berührungsfeld ist, usw. Weiterhin können die Akkorde auf einer Anzahl an unbekannten Kontakten oder einer speziellen Anordnung von bekannten Kontakten basieren. Die Akkorde können weiterhin darauf basieren, ob die Kontakte nahe beieinander, in einer neutralen Position oder weit verstreut sind. Die Akkorde können weiterhin darauf basieren, ob die Kontakte aneinanderliegend oder voneinander versetzt sind. Die Kontakte können weiterhin darauf basieren, ob sie von einer linken und/oder rechten Hand sind.
- Bestimmen des Akkords kann Analysieren der Berührung (des Bildes, das durch Objekte erzeugt wird, die die Berührungsoberfläche berühren oder fast berühren) und Erkennen einer bestimmten Anordnung von Kontakten umfassen. Genauer kann die Bestimmung Klassifizieren oder Identifizieren der Kontakte über geo metrische Merkmale eines jeden Kontakts sowie geometrischen Anordnung von Kontakten umfassen, und dann Bezug nehmen auf eine Datenbank erwarteter Akkorde (z. B. Gestenabbildung). Wenn die Kontaktanordnung mit einem erwarteten Akkord übereinstimmt, dann kann angenommen werden, dass die Kontaktanordnung der erwartete Akkord ist. Diese Schritte können auch Filtern umfassen. Zum Beispiel können manche Kontakte in Wirklichkeit nicht Teil eines Akkords sein. Zum Beispiel können im Fall eines Handflächenberührungsfeldes Kontakte, die durch die Handfläche gebildet werden, ignoriert werden, da sie als Auflagefläche für die Finger der Hand dienen (z. B. sehr unbequem, Handflächen über der Berührungsoberfläche, während langen Zeitabschnitten zu halten).
- Im Fall eines Tablett PCs mit einem Berührungsbildschirm können Kontakte, die vom Daumen mindestens einer Hand gebildet werden, ignoriert werden, da sie in erster Linie dazu verwendet werden, den Tablett PC zu halten.
- Beispiele von Handakkorden werden unten in Tabelle 1 gezeigt. Es sollte erkannt werden, dass die Tabelle 1 keine erschöpfende Liste ist und dass sie als Beispiel und nicht als Beschränkung gezeigt wird. Zum Beispiel kann die Handfläche als ein Kontakt gezählt werden und irgendeiner der in Tabelle 1 gezeigten Kombinationen hinzugefügt werden, um mehr Akkorde zu erzeugen. Es sollte weiterhin bemerkt werden, dass viele Akkordkombinationen mehr gebildet werden können, indem die Liste von Tabelle 1 mit derselben Liste von der gegenüberliegenden Hand kombiniert wird. Es sollte auch bemerkt werden, dass, obwohl es viele Kombinationen gibt, manche Akkorde nicht machbar sein können, aus unterschiedlichen Gründen, einschließlich Benutzerfreundlichkeit, Ergonomie, Intuitivität usw.
- Sobald der Akkord bestimmt wurde, kann die Operation nach Block
18 weitergehen, wo ein Gestensatz, der Aktionen mit einem oder mehreren Gestenereignissen verbindet, bestimmt wird. Ein Gestensatz kann eine Abbildung sein, die Aktionen mit Gestenereignissen verbindet. Der Gestensatz kann vom bestimmten Akkord abhängen, aber er kann auch von anderen Faktoren abhängen, einschließlich Stelle des Akkords, offene Anwendung, Zustand oder Modus der Anwendung, andere Berührungsmerkmale usw. Im Wesentlichen wählt der Akkord einen Eingabekanal aus, wobei jeder Kanal einen unterschiedlichen Gestensatz damit assoziiert hat. Aus Organisationsgründen und zur Benutzerfreundlichkeit sind in manchen Fällen die Kanäle mit einer bestimmten Eingabefunktionalität, wie etwa Navigationsoperationen, Dateioperationen, Editierungsoperationen, Ansichtsoperationen, Formatierungsoperationen, Werkzeugoperationen, Websurfingoperationen usw. assoziiert. Jede dieser Eingabefunktionalitäten kann einen assoziierten Befehlssatz haben, der mit den Gestenereignissen verbunden ist. - Die Aktionen können Zustandsbefehle oder manipulative Befehle sein. Ein Zustandsbefehl ist ein einzelner implementierter Befehl. Beispiele für Zustandbefehle umfassen neu, öffnen, schließen, löschen, umbenennen, alle auswählen, ausschneiden, kopieren, einfügen, rückgängig, wiederholen, gruppieren/Gruppierung auflösen, kursiv, fett, unterstrichen, vorheriger/nächster, abspielen/pause, stumm usw. Weitere Beispiele von Zustandskommandos umfassen das Starten eines bestimmten Programms, das Starten eines bestimmten Modus eines Programms, das Starten einer Webseite, das Öffnen einer Werkzeugleiste, das Öffnen eines Menüs, Pfeiltastenbedienung, Löschtaste, Leerzeichen, Eingabetaste, Tabulator, Feststelltaste, Funktionen, Zoomen, Vergrößern/Verkleinern, Blättern, Lautstärke usw. Ein manipulativer Befehl ist ein Befehl, der ununterbrochen das ausgewählte Objekt manipuliert. Beispiele von manipulativen Befehlen umfassen Zeigen, Nachverfolgen, Ziehen, Scrollen, Schwenken, Zoomen, Größeneinstellung, Dehnen, Blättern, Lautstärke usw. Es sollte erkannt werden, dass diese Beispiele keine Beschränkung sind, und dass andere Befehle verwendet werden können.
- Wie oben bemerkt, kann ein Gestenereignis irgendeine stilisierte physische Aktion sein, die auf oder oberhalb der Berührungsoberfläche durchgeführt wird. Beispiele von Gestenereignissen können z. B. Bewegungen, Tippen, Druckveränderungen, Verweilen usw. umfassen. In manchen Fällen können die Gestenereignisse durch den Akkord durchgeführt werden. In anderen Fällen können die Gestenereignisse durch eine Untermenge des Akkords durchgeführt werden. In anderen Fällen können die Gestenereignisse durch neue Kontakte zusätzlich zum oder getrennt vom anfänglichen Akkord durchgeführt werden. Gestenereignisse werden unten detaillierter beschrieben werden.
- In Block
20 kann die Berührung bezüglich Gestenereignissen überwacht werden und in Block22 kann eine Bestimmung gemacht werden, ob Gestenereignisse erkannt werden oder nicht. - Das Erkennen der Gestenereignisse kann Analysieren der Berührungseigenschaften von Kontakten umfassen (Kontakte, die mit dem Akkord assoziiert sind und/oder neue Kontakte), Identifizieren eines bestimmten Musters und Bezug nehmen auf den Gestensatz und seine Liste von erwarteten Gestenereignissen. Wenn das Muster mit einem erwarteten Gestenereignis übereinstimmt, dann kann angenommen werden, dass das Muster das erwartete Gestenereignis ist. Die Berührungscharakteristik kann z. B. Berücksichtigungen erster Ordnung umfassen, wie Bewegung, Tippen, Druckänderung, Verweilen und Berücksichtigungen zweiter Ordnung, wie etwa Geschwindigkeit (absolute oder relative), Richtung (absolute oder relative), Ausrichtung (absolute oder relative), Größe (absolute oder relative), Dauer (absolute oder relative), Form (absolute oder relative), Länge (absolute oder relative) und/oder ähnliches.
- In einer Ausführungsform können Gestenereignisse so entworfen oder ausgewählt werden, dass sie von anderen Gestenereignissen unterscheidbar sind, um Überlagerungen oder Fehler beim Erkennen des Gestenereignisses zu vermeiden (z. B. will man typischerweise Gestenereignisse einfach von anderen Gestenereignissen unterschieden haben).
- Nochmals, Gestenereignisse können als Bewegung, Tippen, Druck, Verweilen usw. klassifiziert werden. Wenn sie Bewegung sind, können die Gestenereignisse wie folgt beispielhaft dargestellt werden: Gleiten in irgendeine Richtung, ein langsames lineares Schwenken nach rechts, links, oben und unten; ein schnelles lineares Umschnalzen nach rechts, links, oben und unten; eine langsame Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn; eine schnelle Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn, Zusammenziehen oder Entfalten zweier oder mehr Kontakte (z. B. Spreizen und Schließen einer Trennung zwischen Kontakten). Wenn sie ein Tippen sind, können die Gestenereignisse weiterhin beispielhaft erläutert werden wie folgt: ½ Tippen, ganzes Tippen, mehrfaches Tippen, schnelles Tippen, langsames Tippen usw. Wenn sie Druck sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als leichtes Drücken oder starkes Drücken. Wenn sie Verweilen sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als langes stationäres Anhalten oder kurzes stationäres Anhalten. Es sollte erkannt werden, dass diese Liste keine Beschränkung ist und dass Gestenereignisse auf andere Weisen oder mit anderen Ausrichtungen klassifiziert werden können. Zum Beispiel sind lineare Bewegungsgesten nicht auf rechts, links, oben und unten beschränkt und können weiterhin rechts oben, links oben, rechts unten, links unten umfassen.
- Die Gestenereignisse können grundlegend oder fortgeschritten sein. Grundlegende Gesten können diejenigen Gesten mit einer Aktion sein, wie z. B. Schwenken linear nach rechts. Fortgeschrittene Gesten können diejenigen Gesten mit mehreren Aktionen sein, wie z. B. Schwenken linear nach rechts gefolgt von einem Tippen oder Schwenken linear nach rechts; langes Anhalten, Schwenken linear nach links; oder Drehen gegen den Uhrzeigersinn mit erhöhtem oder verringertem Druck. Fortgeschrittene Gesten können eine beliebige Anzahl an Aktionen umfassen. Grundlegende Gesten können aus Benutzerfreundlichkeits- und Verarbeitungskomplexitätsgründen verwendet werden.
- Wenn ein Gestenereignis erkannt wird, kann die Operation zu Block
24 weitergehen, wo die mit den Gestenereignissen assoziierte(n) Aktion(en) durchgeführt werden. Block24 kann Bezug nehmen auf den Gestensatz und Auffinden der Aktion(en), die mit den erkannten Gestenereignissen assoziiert ist/sind umfassen. Sobald sie aufgefunden ist/sind, kann/können die Aktion(en) initiiert werden. Wenn die Aktion ein Zustandsbefehl ist, kann der Befehl jedes Mal initiiert werden, wenn das Gestenereignis durchgeführt wird (das Gestenereignis arbeitet z. B. als Schaltfläche). In manchen Fällen kann das Gestenereignis so entworfen werden, dass es sich wiederholende Zustandsbefehle erzeugt. Wenn der Benutzer z. B. das Gestenereignis ausdehnt oder fortsetzt, können mehrere Zustandsbefehle initiiert werden. Dies kann in einem Spielmodus zum schnellen Feuern oder in einem Editiermodus hilfreich sein, wenn Arbeit rückgängig gemacht wird oder in einem Blättermodus, wenn durch Seiten geblättert wird. Wenn z. B. ein einzelner Rückgängig-Befehl durch ein schnelles lineares Schwenken nach rechts initiiert wird, kann ein sich wiederholender Rückgängig-Befehl durch ein schnelles lineares Schwenken gefolgt von einem langsamen linearen Schwenken in einer kontinuierlichen Bewegung (während Berührung) initiiert werden. In diesem Beispiel kann der Rückgängig-Befehl in Übereinstimmung mit dem langsamen linearen Schwenken wiederholt initiiert werden (z. B. wird der Rückgängig-Befehl alle 100 Millisekunden während des langsamen linearen Schwenkens ausgelöst). Wenn die Aktion ein manipulativer Befehl ist, kann der Befehl kontinuierlich während des Gestenereignisses erzeugt werden (z. B. eins zu eins Übereinstimmung zwischen Befehl und Gestenereignis). Wenn der Befehl z. B. Scrollen ist, kann Scrollen solange durchgeführt werden, wie das Gestenereignis durchgeführt wird und in Übereinstimmung mit den Gestenereigniseigenschaften (z. B. Geschwindigkeit, Richtung usw.). - Nach Block
24 kann die Operation nach Block26 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schaltereignis ausgeführt wurde oder nicht. Ein Schaltereignis kann sich auf ein Ereignis beziehen, das die Operation zurücksetzt oder einen Akkordwechsel initiiert. Das Schaltereignis kann auf unterschiedliche Arten implementiert werden. Zum Beispiel kann es implementiert werden, indem alle Kontakte während einer vorbestimmten Zeitspanne entfernt werden (z. B. Heben der Hand von der Berührungsoberfläche). Es kann auch durch Ändern des Basisakkords während der Berührung implementiert werden (z. B. Hinzufügen/Entfernen von Kontakten). Es kann auch durch Hinzufügen/Entfernen von Kontakten der gegenüberliegenden Hand implementiert werden (z. B. Absetzen eines oder mehrerer Finger mit der gegenüberliegenden Hand, während die andere Hand noch berührt). Es kann auch durch Anhalten implementiert werden (z. B. wenn die Kontakte während einer vorher gesetzten Zeitspanne stationär bleiben). Es kann auch durch eine Tasteneingabe oder ein Tastenklicken von einer Standardtastatur oder Maus implementiert werden. Es kann auch durch ein Gestenereignis implementiert werden. Wenn ein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block12 . Wenn kein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block20 . - Tabelle 1 – Beispiele für einhändige Akkorde
- Unbekannte Kontakte – Standardanordnung (keine Handfläche oder Handfläche ignoriert)
-
- Beliebiger Finger
- Beliebige zwei Finger
- Beliebige drei Finger
- Beliebige vier Finger
- Daumen + beliebiger Finger
- Daumen + beliebige zwei Finger
- Daumen + beliebige drei Finger
- Daumen + vier Finger
- Unbekannte Kontakte – variierte Anordnung (keine Handfläche oder Handfläche ignoriert)
-
- Zwei nebeneinander liegende Finger
- Zwei nicht nebeneinander liegende Finger
- Zwei nebeneinander liegende Finger + ein nicht angrenzender Finger
- Daumen + zwei nebeneinander liegende Finger
- Daumen + zwei nicht nebeneinander liegende Finger
- Daumen + zwei nebeneinander liegende Finger + ein nicht angrenzender Finger
- Beliebige zwei nebeneinander liegende Finger geschlossen
- Beliebige zwei nebeneinander liegende Finger gespreizt
- Beliebige drei nebeneinander liegende Finger geschlossen
- Beliebige drei nebeneinander liegende Finger gespreizt
- Vier nebeneinander liegende Finger geschlossen
- Vier nebeneinander liegende Finger gespreizt
- Daumen + zwei nebeneinander liegende Finger geschlossen
- Daumen + zwei nebeneinander liegende Finger gespreizt
- Daumen + drei nebeneinander liegende Finger geschlossen
- Daumen + drei nebeneinander liegende Finger gespreizt
- Daumen + vier nebeneinander liegende Finger geschlossen
- Daumen + vier nebeneinander liegende Finger gespreizt
- Bekannte Kontakte (keine Handfläche oder Handfläche ignoriert)
-
- Zeigefinger
- Mittelfinger
- Ringfinger
- Kleiner Finger
- Zeigefinger + Mittelfinger
- Zeigefinger + Ringfinger
- Zeigefinger + kleiner Finger
- Mittelfinger + Ringfinger
- Mittelfinger + kleiner Finger
- Ringfinger + kleiner Finger
- Daumen + Zeigefinger
- Daumen + Mittelfinger
- Daumen + Ringfinger
- Daumen + kleiner Finger
- Daumen + Zeigefinger + Mittelfinger
- Daumen + Zeigefinger + Ringfinger
- Daumen + Zeigefinger + kleiner Finger
- Daumen + Mittelfinger + Ringfinger
- Daumen + Mittelfinger + kleiner Finger
- Daumen + Ringfinger + kleiner Finger
- Zeigefinger + Mittelfinger + Ringfinger
- Zeigefinger + Mittelfinger + kleiner Finger
- Zeigefinger + Ringfinger + kleiner Finger
- Mittelfinger + Ringfinger + kleiner Finger
- Daumen + Zeigefinger + Mittelfinger + Ringfinger
- Daumen + Zeigefinger + Mittelfinger + kleiner Finger
- Daumen + Zeigefinger + Ringfinger + kleiner Finger
- Daumen + Mittelfinger + Ringfinger + kleiner Finger
- Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger
- Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger
- Sonstige (Handfläche nach unten)
-
- Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + kleiner Finger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Sonstige
-
- Rechte Handseite
- Linke Handseite
- Handrückseite
- Handvorderseite (ganze)
- Sonstige (Knöchel nach unten – Fausthieb)
-
- Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger geschlossen oder zu Faust gewickelt
- Daumen + Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt
- Daumen + Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickelt
-
2 zeigt eine illustrative Steueroperation50 . Die Operation kann bei Block52 beginnen, wo eine Berührung oder Fast-Berührung detektiert wird. - Nach Block
52 kann die Operation zu Block54 weitergehen, wo ein Gestensatz für die Berührung bestimmt wird. Der Gestensatz kann von vielen Faktoren abhängen, einschließlich Berührungscharakteristik, Berührungsort, Anwendung, Anwendungsmodus oder ähnliches. In den meisten Fällen basiert der Gestensatz zumindest teilweise auf der Kontaktanordnung beim Absetzen. - Nach Block
54 kann die Operation zu Block56 weitergehen, wo die Berührung bezüglich Gestenereignissen überwacht wird, die mit dem Gestensatz assoziiert sind. Der Gestensatz kann ein oder mehrere Gestenereignisse zum Auslösen oder Initialisieren eines Befehls umfassen (Befehle können z. B. an bestimmte Gestenereignisse gebunden oder mit ihnen verbunden sein). - Nach Block
56 kann die Operation zu Block58 weitergehen, wo ein oder mehrere Befehle initiiert werden, wenn Gestenereignisse durchgeführt werden. Zum Beispiel kann ein Benutzer eine bestimmte Fingeranordnung gleiten lassen, um ein Scrollereignis hervorzurufen oder zu initiieren. -
3 zeigt eine illustrative Steueroperation60 . Die Steueroperation60 kann z. B. dem Block54 in2 entsprechen. Die Steueroperation60 kann bei Block62 beginnen, wo die anfängliche Kontaktanordnung erkannt wird. Danach kann in Block64 die anfängliche Kontaktanordnung mit einem gespeicherten Satz an Kontaktanordnungen verglichen werden. Zum Beispiel kann das System auf eine Gestenabbildung Bezug nehmen, die eine Liste von anfänglichen Kontaktanordnungen umfasst und Gestensätze, die ihnen zugeordnet sind. Wenn es eine Übereinstimmung gibt, kann die Operation nach Block66 weitergehen, wo der Gestensatz geladen wird, der der erkannten anfänglichen Kontaktanordnung zugeordnet ist. -
4 zeigt eine illustrative Steueroperation70 . Die Steueroperation70 kann bei Block72 beginnen, wo eine Berührung detektiert wird. Danach kann in Block74 die Stelle der Berührung bestimmt werden. Danach kann in Block76 die Kontaktanordnung, die mit der Berührung assoziiert ist, bestimmt werden (z. B. Berührungsmuster). Danach kann in Block78 die aktive Anwendung bestimmt werden. Danach kann in Block80 der aktuelle Zustand der Anwendung bestimmt werden (z. B. aktueller Modus). Danach kann in Block82 ein geeigneter Gestensatz gesetzt oder ausgewählt werden, auf der Grundlage von einem oder mehreren bestimmten Attributen, die oben erwähnt wurden (Blöcke74 bis80 ). Unter Verwendung der bestimmten Attribute kann ein System z. B. auf eine gespeicherte Gestenabbildung Bezug nehmen, die jedem der oben erwähnten Attribute einen bestimmten Gestensatz zuordnet. Die gespeicherte Gestenabbildung kann stan dardmäßig erzeugt werden oder sie kann durch den Benutzer anpassbar sein. Der Benutzer kann z. B. ein Steuerfeld verwenden, um Einstellungen zu ändern, die mit der Gestenabbildung verbunden sind, oder eine Trainingssequenz verwenden, um die Gestenabbildung zu programmieren. -
5 zeigt eine illustrative Steueroperation100 . Die Steueroperation kann bei Block102 beginnen, wo eine Bestimmung gemacht wird, ob eine Berührung detektiert wurde oder nicht. Wenn eine Berührung detektiert wurde, kann die Operation nach Block104 weitergehen, wo die Kontaktanordnung erkannt wird. Block104 kann die Unterblöcke106 und108 enthalten. In Block106 wird eine Bestimmung gemacht, ob die Kontaktstellen genau identifiziert werden können. Beispielsweise ob eine Kontaktstelle ein Zeigefinger oder ein Daumen oder eine Handfläche sein kann. Wenn sie nicht genau identifiziert werden können, dann kann die Operation nach Block108 weitergehen, wo eine Anzahl an Kontaktstellen bestimmt wird. Beispielsweise ob es zwei Kontaktstellen gibt, drei Kontaktstellen usw. Nach Block104 kann die Operation nach Block110 weitergehen, wo die erkannte Kontaktanordnung mit gespeicherter Kontaktanordnung in einer Gestenabbildung verglichen wird. Wenn es keine Übereinstimmung gibt, dann kann die Operation nach Block102 zurückgehen. Wenn es eine Übereinstimmung gibt, dann kann die Operation nach Block112 weitergehen, wo nach Bezugnahme auf die Gestenabbildung der Gestensatz, der mit der anfänglichen Kontaktanordnung assoziiert ist, geladen wird. Danach kann in Block116 die Berührung bezüglich Gestenereignissen überwacht werden, die mit dem Gestensatz assoziiert sind. Wenn ein Gestenereignis durchgeführt wird, kann die Operation nach Block118 weitergehen, wo der mit dem Gestenereignis assoziierte Befehl ausgeführt wird. -
6 zeigt eine illustrative Steueroperation120 . Die Steueroperation120 kann bei Block122 beginnen, wo eine Berührung oder Fast-Berührung detektiert wird. Danach kann in Block124 ein Akkord für die Berührung bestimmt werden. Danach kann in Block126 die Eingabefunktionalität bestimmt werden, die mit dem Akkord assoziiert ist. Die Eingabefunktionalität kann eine Operation oder Gruppe von Operationen beschreiben. Beispiele für Operationen umfassen Navigations operationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Einfügeoperationen, Formatierungsoperationen, Werkzeugoperationen, Weboperationen usw. Die Eingabefunktionalität kann weiterhin auf Umgebungsbedingungen beruhen, einschließlich der Akkordposition auf der Berührungsoberfläche, Anwendungen, Modi usw. Danach kann in Block128 der Gestensatz, der mit der Eingabefunktionalität assoziiert ist, aktiviert oder geladen werden. Ein Gestensatz kann eine Gruppe von Gestenereignissen sein, die jeweils mit einer unterschiedlichen Aktion assoziiert sind, die sich auf die Eingabefunktionalität bezieht. Das Gestenereignis kann durch den anfänglichen Akkord alleine durchgeführt werden, entweder als eine Gruppe, eine Untermenge der Gruppe oder relativ zu einem anderen. Alternativ können sie durch Objekte durchgeführt werden, die nicht mit dem Akkord assoziiert sind (z. B. Kontaktstellen, die hinzugefügt werden, nachdem der Basisakkord gesetzt ist). Das Gestenereignis kann Parameter erster Ordnung umfassen, wie etwa Bewegung, Tippen, Verweilen, Druck und/oder ähnliches. Das Gestenereignis kann auch Parameter zweiter Ordnung umfassen, die die Parameter erster Ordnung definieren, wie etwa Geschwindigkeit, Richtung, Form, zeitliche Abfolge/Dauer, Länge und/oder ähnliches. Danach können in Block130 Aktionen, die mit den Gestenereignissen assoziiert sind, implementiert werden, wenn die Gestenereignisse durchgeführt werden. -
7 zeigt eine illustrative Gestenoperation140 . Die Operation140 kann bei Block142 beginnen, wo eine Berührung detektiert wird. Nach Block144 kann die Operation nach Block144 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block146 der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block146 kann die Operation nach Block148 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz enthält Gestenereignisse, die mit einer beliebigen Kontaktanordnung während der Berührung durchgeführt werden können. Danach kann in Block150 die Berührung bezüglich eines Gestenereignisses überwacht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch eine beliebige Kontaktanordnung durchgeführt wird, kann die Operation nach Block152 weitergehen, wo die Steuerung/der Befehl, die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn kein Gestenereignis durchgeführt wurde, kann die Operation nach Block154 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation nach Block150 zurückgehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block142 gehen. Das heißt ein Anheben gefolgt von einer Berührung setzt den Akkord und damit den Gestensatz zurück. - Das oben in
7 beschriebene Model zur Auswahl des anfänglichen Akkords erlaubt es einem Benutzer vorteilhafterweise, zusätzliche Finger anzuheben oder fallen zu lassen, ohne den Gestensatz zu berühren. Dies ist ergonomischer dadurch, dass ein Benutzer, der in einem Basisakkord von zwei Fingern startet, die übrigen drei Finger fallen lassen kann, so dass alle fünf Finger die Hand stützen. Als ein Ergebnis kann Gestikulieren während längerer Zeitabschnitte durchgeführt werden. Im Wesentlichen werden Veränderungen am Basisakkord ignoriert. Weiterhin ermöglicht es Benutzern, Zeigen/Ziehen, Scrollen in Berührungsoberflächen mit begrenztem Platz zu erweitern, indem er alle bis auf einen Finger anhebt und andere Finger zum Ziel gehen oder gleiten lässt. -
8 zeigt eine illustrative Gestenoperation160 . Die Operation160 kann bei Block162 beginnen, wo eine Bestimmung gemacht wird, ob 2 nebeneinander liegende Finger detektiert werden oder nicht. Wem dies so ist, kann die Operation nach Block164 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nicht, kann die Operation nach Block166 weitergehen, wo eine Bestimmung gemacht wird, ob 3 nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block168 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein, kann die Operation nach Block170 weitergehen, wo eine Bestimmung gemacht wird, ob ein Daumen und zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block172 weitergehen, wo sekundäre Ziehoperationen durchgeführt werden. Wenn nein, kann die Operation zurück nach Block162 weitergehen. Dieser Prozess kann je des Mal zurückgesetzt werden, wenn alle Finger von der Berührungsoberfläche abgehoben werden (z. B. Berührung wird nicht mehr detektiert). -
9 zeigt eine illustrative Gestenoperation180 . Die Operation180 kann bei Block182 beginnen, wo ein Basisakkord bestimmt wird. Danach kann die Operation drei verschiedene Prozesse entweder getrennt oder gleichzeitig durchführen (parallele Blöcke184 bis188 ). In Block184 kann Bewegung mit dem Basisakkord detektiert werden. Danach können in Block190 Zeigeoperationen in Übereinstimmung mit der Bewegung durchgeführt werden. In Block186 kann ein neuer erster Finger detektiert werden. Das heißt ein neuer erster Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden (zusätzlich zum Basisakkord). Danach kann in Block192 ein erster Befehl jedes Mal initiiert werden, wenn der neue erste Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen ersten Fingers durchführen. In Block188 kann ein neuer zweiter Finger detektiert werden (zusätzlich zum Basisakkord). Das heißt, ein neuer zweiter Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden. Danach kann in Block194 ein zweiter Befehl jedes Mal initiiert werden, wenn der neue zweite Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen zweiten Fingers durchführen, oder einfach dadurch, dass der Finger unten gehalten wird. Die in9 beschriebene Operation wird manchmal Modell zur Auswahl des aktuellen Akkords genannt. - In einem Beispiel von
9 kann der Basisakkord3 Finger sein (entweder Zeigefinger-Mittelfinger-Ringfinger oder Daumen-Mittelfinger-Ringfinger). Somit können drei Finger für Zeigeoperationen verwendet werden. Weiterhin kann der neue erste Finger der Daumen oder Zeigefinger sein, wenn der Daumen bereits Teil der Basis ist. Somit können der Daumen oder der Zeigefinger den ersten Befehl initiieren. Weiterhin kann der neue zweite Finger der kleine Finger sein. Somit kann der kleine Finger den zweiten Befehl initiieren. - Das obige Beispiel kann in Spielmodi nützlich sein. Der Basisakkord kann zum Zeigen verwendet werden, der erste neue Finger kann zum Auslösen verwendet werden und der zweite neue Finger kann für einen Waffenwechsel verwendet werden. Alternativ kann in Standardmodi der Basisakkord zum Zeigen verwendet werden, der erste neue Finger kann zum primären Klicken und Ziehen verwendet werden und der zweite neue Finger kann für ein sekundäres Klicken und Ziehen verwendet werden. Die drei Finger Unterstützung liefert ausreichende Unterstützung sowohl in Spiel- als auch Standardmodi.
-
10 zeigt eine illustrative Gestenoperation200 . Die Operation200 kann bei Block202 beginnen, wo eine Berührung detektiert wird. Nach Block204 kann die Operation nach Block204 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block206 , der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block206 kann die Operation nach Block208 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz kann Gestenereignisse enthalten, die mit jeder beliebigen Kontaktanordnung während der ersten Berührung durchgeführt werden können. Danach kann in Block210 die Berührung bezüglich eines Gestenereignisses überbracht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch irgendeine Kontaktanordnung durchgeführt wurde, kann die Operation nach Block212 weitergehen, wo die Steuerung/der Befehl die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn ein Gestenereignis nicht durchgeführt wurde, kann die Operation nach Block214 weitergehen, wo eine Bestimmung gemacht wird, ob der Basisakkord oder die aktuelle Kontaktanordnung während der Berührung angehalten wurde. Wenn ja, kann angenommen werden, dass die Pause ein Akkordwechselereignis ist und die Operation kann zurück nach Block204 weitergehen. Wenn nein, kann die Operation nach Block216 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird, oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation zurück nach Block210 gehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block202 weitergehen. - In dem in
10 beschriebenen Model zur Auswahl des Anhaltens können Wechsel nur stattfinden, wenn die Originalfinger angehalten werden oder sich ziemlich langsam bewegen. Somit können Benutzer von einem Finger hin zu Fünf-Finger-Zeigen entspannen, solange das Fingersenken mitten in einem Zeigezug ist. -
11 zeigt eine illustrative Gestenoperation220 . Die Operation220 kann bei Block222 beginnen, wo eine Bestimmung gemacht wird, ob 1 Finger detektiert wird oder nicht. Wenn ja kann die Operation nach Block224 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein kann die Operation nach Block226 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block228 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block230 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nicht-nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block232 weitergehen, wo sekundäre Ziehoperationen durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nicht-nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block34 weitergehen, wo eine Bestimmung gemacht wird, ob drei oder vier Finger detektiert werden oder nicht. Wenn ja, kann scrollen in Übereinstimmung mit Bewegung initiiert werden (Block236 ). Wenn nein, kann die Operation zurück nach Block222 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (z. B. Berührung wird nicht mehr detektiert), oder wenn der Akkord für einen Moment angehalten wird. -
12 zeigt eine illustrative Gestenoperation240 . Die Operation240 kann bei Block242 beginnen, wo eine Bestimmung gemacht wird, ob 5 Finger detektiert werden oder nicht. Wenn ja kann die Operation weiter nach Block244 gehen, wo Zeigen initiiert wird, bis alle Finger von der Berührungsoberfläche abgehoben werden. In Block246 wird eine Bestimmung gemacht, ob einer der 5 Finger ein Abheben und Tippen während dem Zeigen macht oder nicht. Wenn ja, kann ein Klicken durchgeführt werden (Block248 ). In Block250 wird eine Bestimmung gemacht, ob zwei der 5 Finger ein Abheben und Tippen während des Zeigens machen oder nicht. Wenn ja, kann Ziehen durchgeführt werden (Block252 ). Danach wird in Block253 eine Bestimmung gemacht, ob ein oder zwei der 5 Finger ein Abheben und. Tippen während des Ziehens machen oder nicht. Wenn ja, kann ein Fallenlassen durchgeführt werden (Block254 ). Wenn nein, kann das Ziehen weitergehen. Nach den Blöcken250 und254 kann die Operation zurück nach Block244 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (d. h. Berührung wird nicht mehr detektiert) oder wenn der Akkord für einen Moment angehalten wird. - In einer alternativen Ausführungsform von
12 kann Anheben und Tippen eines links orientierten Fingers des fünf Finger-Basisakkords ein Klicken der linken Taste und ein Anheben und Tippen eines rechts orientierten Fingers des Basisakkords kann ein Klicken der rechten Taste initiieren. -
13 zeigt die illustrative Gestenoperation260 . Die Operation260 kann bei Block262 beginnen, wo eine Berührung detektiert wird. Danach kann in Block264 die Seite des kleinen Fingers erkannt werden. Die Seite des kleinen Fingers erzeugt eine lange (stark exzentrische) horizontale Kontaktstelle, die von allen anderen Kontakten (mit Ausnahme möglicherweise eines abgeflachten Daumens) verschieden ist. So kann das Gestensystem in der Lage sein, horizontal exzentrische aber dünne Kontakte konsistent als einen kleinen Finger (oder möglicherweise einen Daumen) zu klassifizieren. Danach kann in Block266 ein Wischen mit der Seite des kleinen Fingers detektiert werden. - Danach kann in Block
268 eine Steuerung oder ein Befehl durchgeführt werden, die/der mit dem wischenden kleinen Finger assoziiert ist. - Wischen mit der Seite des kleinen Fingers kann für einfache Steuergesten, wie Lautstärke hoch/runter, schlafen, Bildschirmschoner usw. nützlich sein. Das Wischen mit der Seite des kleinen Fingers hat die Einfachheit, eine Berührung mit der Seite des kleinen Fingers, während sie als vom normalen 1-Fingerspitzen-Zeigen/-Klicken unterschiedlich erkennbar ist. Es ist auch sehr ergonomisch, weil während des Berührens mit der Seite des kleinen Fingers der Daumen gerade nach oben in die Luft zeigt. Dies ist die neutralste komfortable aller Handgelenkspositionen.
-
14 zeigt eine illustrative Gestenoperation280 . Die Operation280 kann bei Block282 beginnen, wo eine Gestensatzzuordnung Hochgleiten nach Freilegen und Hinuntergleiten nach Instrumententafel zur Verfügung gestellt wird. - Instrumententafel ist ein Steuerfeld, das anpassbare Vorrichtungen (Minianwendungen) enthält, die dem Benutzer sofort Informationen bringen – Wettervorhersagen, Aktienkurse, Gelbe Seiten, Fluglinienflüge, Sportergebnisse usw. In den meisten Fällen wird die Instrumententafel in Sicht gebracht, wenn sie aktiviert wird, und wenn sie deaktiviert wird, wird die Instrumententafel aus der Sicht entfernt. Der Benutzer kann aktuelle und zeitnahe Information aus dem Internet mit einem Tastenklick erhalten und sie dann sofort verschwinden lassen, wenn die Taste losgelassen wird.
- Darlegen ist ein Fensterverwaltungsprogramm. Fensterverwaltungsprogramme sind konfiguriert, um beim Navigieren durch oder Abschwächen eines Fensterdurcheinanders zu helfen (der Zustand, in dem es schwierig ist, Dokumente zu finden oder den Schreibtisch zu sehen, weil es so viele offene Fenster und/oder Anwendungen gibt). Darlegen kann drei verschiedene Operationsmodi haben oder von ihnen ausgewählt werden, die durch Gestikulieren gesteuert werden können. Der erste Modus ist Alle Fenster oder Kachel, Skaliere oder Zeige alle. Wenn in diesem Modus gearbeitet wird, werden alle offenen Fenster gekachelt und so skaliert, dass all die offenen Fenster gleichzeitig innerhalb des Anzeigebildschirms gesehen werden können. Das heißt Durchführen der spezifizierten Geste kachelt sofort alle offenen Fenster – skaliert sie herunter und ordnet sie schön an, so dass der Benutzer den Inhalt in jedem Fenster betrachten kann. Die Skalierungsmenge oder Skalierungsrate kann an irgendeine Eigenschaft der Geste gebunden sein, wie z. B. Druck oder Geschwindigkeit. Der zweite Modus ist Anwendungsfenster oder Hebe Aktuelle Anwendung hervor. Dieser Modus arbeitet ähnlich dem ersten Modus, außer dass er nur auf einer bestimmten Anwendung arbeitet. Zum Beispiel kann das Durchführen einer bestimmten Geste sofort die offenen Fenster einer bestimmten Anwendung kacheln, während es verursacht, dass alle anderen offenen Anwendungen zu einem Grauton abblenden. Der dritte Modus ist Schreibtisch oder Verstecke Alle. In diesem Modus werden alle offenen Fenster zu den Bildschirmrändern bewegt, wodurch der Schreibtisch geöffnet wird. Das heißt Durchführen der bestimmten Geste kann alle offenen Fenster verbergen, wodurch dem Benutzer sofortiger Zugang zu seinem Schreibtisch gegeben wird.
- Danach können in Block
284 die Operationen Erkennen eines Basis Akkords beinhalten (z. B. zwei oder mehr Finger). Danach kann in Block286 eine Bestimmung gemacht werden, ob ein Hochgleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block288 weitergehen, wo Alle Darlegen geöffnet wird. Danach kann in Block290 eine Bestimmung gemacht werden, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block292 weitergehen, wo Alle Darlegen geschlossen wird. Danach kann die Operation zurück nach Block286 weitergehen. Unter Bezugnahme auf Block286 kann die Operation dann, wenn ein Hochgleiten durch den Basisakkord nicht Detektiert wird, nach Block294 weitergehen, wo eine Bestimmung gemacht werden kann, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block296 weitergehen, wo Instrumententafel geöffnet wird. Danach kann in Block298 eine Bestimmung gemacht werden, ob ein Hochgleiten detektiert wird oder nicht. Wenn ja, kann die Operation nach Block300 weitergehen, wo Instrumententafel geschlossen wird. Danach kann die Operation zurück nach Block286 weitergehen. Unter Bezugnahme zurück auf Block294 kann die Operation, wenn ein Heruntergleiten nicht detektiert wird, nach Block301 weitergehen, wo eine Bestimmung gemacht wird, ob sich der Akkord geändert hat. Zum Beispiel Wegheben eines Fingers. Wenn sich der Akkord geändert hat, kann die Operation nach Block302 weitergehen, wo Zeigen mit dem geänderten Akkord durchgeführt wird. Danach kann in Block304 eine Bestimmung gemacht werden, ob der Akkord in den Basisakkord zurück geändert wurde oder nicht. Wenn ja, kann die Operation zurück nach Block286 weitergehen. Die Gestenoperation280 wird manchmal Abbrechen in gegenüberliegende Richtung genannt. - In zusätzlichen Ausführungsformen kann die in
14 gezeigte Operation so modifiziert werden, dass sie Wischen nach rechts und links umfasst, die jeweils mit einer unterschiedlichen Funktionalität von Darlegen assoziiert sind. - Eine statische Befehlsgeste ist eine Geste, die durch einfaches Platzieren einer bestimmten Kontaktanordnung auf einer Berührungsoberfläche durchgeführt wird. Ein Befehl wird initiiert, wenn die bestimmte Kontaktanordnung beim Auftreffen identifiziert wird. Es gibt keine Gestenereignisse, die der anfänglichen Platzierung folgen. Der Befehl wird einfach erzeugt, wenn die Berührung detektiert wird. Die statische Befehlsgeste kann analog eine Zeichensprache sein, wo spezifische Handanordnungen unterschiedliche Dinge bedeuten. Im Zusammenhang mit einer statischen Befehlsgeste initiiert jede Handanordnung (oder unterschiedliche Kontaktanordnung) einen unterschiedlichen Befehl.
-
15 zeigt die illustrative Gestenoperation310 . Die Gestenoperation310 kann bei Block312 beginnen, wo eine Berührung oder eine beinahe Berührung an einer Berührungsoberfläche detektiert wird. Nach Block312 kann die Operation nach Block314 weitergehen, wo eine Kontaktstellenanordnung, die mit der Berührung assoziiert ist, identifiziert wird. Die Kontaktstellenanordnung kann durch eine oder zwei Hände gemacht werden, oder alternativ oder zusätzlich durch Elemente wie einen Stift oder Stempel. Wenn die Kontaktstellen durch die Hand erzeugt werden, können sie durch irgendeinen Abschnitt der Hand gemacht werden, inklusive Finger, Handflächen usw., und weiterhin durch irgendeine Ausrichtung der Hand, durch irgendeine Position der Finger relativ zueinander und durch irgendeine Ausrichtung von Fingern. Wie erkannt werden sollte, werden verschiedene Handausrichtungen und verschiedene Fingerpositionen/-Ausrichtungen eine unterschiedliche Kontaktstellenanordnung erzeugen. Beispiele von verschiedenen Ausrichtungen umfassen offene Hand nach unten, offene Hand nach oben, offene Hand mit der Seite nach unten (Daumen unten), geschlossene Hand – Handfläche unten, geschlossene Hand – Handrücken, geschlossene Hand – Knöchel, geschlossene Hand – mit der Seite nach unten. Beispiele von verschiedenen Fingerpositionen umfassen gespreizt, neutral, gruppiert, usw. Jede Kontaktanordnung kann in Betracht gezogen werden (Zeichensprache). - Nach Block
314 kann die Operation nach Block316 weitergehen, wo ein Befehl, der an eine bestimmte Kontaktanordnung gebunden ist, initiiert wird, wenn die bestimmte Kontaktanordnung identifiziert wird. Die Befehle können stark variieren. -
16 zeigt eine illustrative Gestenoperation320 . Die Gestenoperation320 kann bei Block322 beginnen, wo eine Berührung bezüglich Bewegung überwacht wird. Die Berührung kann z. B. als eine spezielle Kontaktanordnung ausgeführt sein. Wenn es Bewegung gibt, kann die Gestenoperation weitergehen nach Block324 , wo die Bewegung zwischen einem Schnalzen und einem Wischen unterschieden wird. Ein Schnalzen kann eine schnelle kurze Bewegung sein. Ein Wischen kann eine längere langsame Bewegung sein. Wenn die Bewegung ein Schnalzen ist, dann kann eine erste Aktion durchgeführt werden, wenn das Schnalzen detektiert wird (Block326 ). Wenn die Bewegung Wischen ist, dann kann eine zweite Aktion durchgeführt werden, wenn das Wischen detektiert wird (Block328 ). -
17 zeigt eine illustrative Gestenoperation330 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation330 kann bei Block332 beginnen, wo eine Berührung auf einer Berührungsoberfläche detektiert wird (z. B. Berührungsfeld, Berührungsbildschirm). Nach Block332 kann die Operation nach Block334 weitergehen, wo zwei Kontakte, die mit der Berührung assoziiert sind, identifiziert werden. Danach kann die Operation in Block336 Überwachung der Bewegung bezüglich eines Gestenereignisses umfassen. In Block338 kann ein Drehbefehl initiiert werde, wenn ein erster Kontakt stationär ist und der zweite Kontakt um den ersten Kontakt gedreht wird. - Viele Benutzer halten mehrere Fenster gleichzeitig offen. Dies ermöglicht ihnen, zwischen Fenstern, wie benötigt, hin und her zu gehen. Dies kann nützlich sein, wenn sie von einem Fenster kopieren und in ein anderes Fenster einfügen. In einem typischen Prozess wählt der Benutzer eines der Fenster aus, wodurch er das Fenster aktiviert, und führt dann Aktionen mit dem Fenster aus. Der Benutzer wählt dann ein anderes Fenster an, wodurch er das neue Fenster aktiviert und das alte Fenster deaktiviert und führt dann Aktionen mit dem neuen Fenster aus. Dies ist umständlich und besteht aus vielen Schritten. Um dies zu beseitigen, stellt die vorliegende Erfindung ein Verfahren in
18 zur Verfügung, das dem Benutzer die Möglichkeit gibt, zwischen Fenstern ohne Aktivieren und Deaktivieren hin und her zu gehen. Die Fenster werden aktiv, wenn sich ein Zeigemechanismus über dem Fenster befindet. Der Zeigemechanismus kann ein Zeiger oder Cursor im Fall eines Berührungsfeldes sein oder ein Finger im Fall eines Berührungsbildschirms. -
18 zeigt eine illustrative Gestenoperation340 . Die Gestenoperation340 umfasst das zur Verfügung stellen mehrerer Fenster342 . Die Fenster können z. B. geöffnete Programme auf einer Schreibtischoberfläche sein. Danach kann die Operation in Block344 Detektieren eines Zeigemechanismus über dem ersten Fenster umfassen. Im Fall eines Berührungsfeldes kann der Zeigemechanismus z. B. ein Cursor sein. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Danach kann in Block346 die Berührung überwacht werden, um zu bestimmen, ob ein Akkord, der mit dem Zeigemechanismus assoziiert ist, dargeboten wurde. Im Fall eines Berührungsfeldes kann dies bewerkstelligt werden, nachdem der Cursor über dem Fenster platziert ist. Im Fall eines Berührungsbildschirms kann dies bewerkstelligt werden, während der Finger über dem Fenster positioniert ist. Danach kann in Block348 ein Gestensatz, der mit dem Akkord und dem ersten Fenster assoziiert ist, initiiert werden (z. B. hängt der Gestensatz sowohl vom Akkord als auch vom Fenster ab). Danach können in Block350 Aktionen im ersten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden. Danach kann in Block352 die Operation Detektieren eines Zeigemechanismus über dem zweiten Fenster umfassen. Dies kann zu einem von Block344 unterschiedlichem Zeitpunkt bewerkstelligt werden oder es kann gleichzeitig mit Block344 geschehen. Der Zeigemechanismus kann derselbe Zeigemechanismus sein, der für das erste Fenster verwendet wird (z. B. wird der Zeigemechanismus von einem Fenster in das andere bewegt) oder alternativ kann der Zeigemechanismus ein zweiter Zeigemechanismus sein (z. B. zweiter Cursor oder zweiter Finger). Danach kann in Block354 die Berührungsoberfläche überwacht werden, um zu Bestimmen, ob ein Akkord, der mit dem zweiten Zeigemechanismus assoziiert ist, dargeboten wurde. Danach kann in Block356 ein Gestensatz, der mit dem Akkord und dem zweiten Fenster assoziiert ist, initiiert werden. Danach können in Block358 Aktionen im zweiten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden. - In einem Beispiel von
18 , das einen Berührungsbildschirm verwendet, dann der Benutzer, wenn ein Benutzer Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über das erste Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann auch Finger von einer zweiten Hand über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen. - In einem anderen Beispiel von
18 , in dem ein Berührungsbildschirm verwendet wird, kann ein Benutzer, wenn der Benutzer ein Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über dem ersten Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann dann seine Hand zum zweiten Fenster bewegen. Der Benutzer kann seine Finger über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen. -
19 zeigt eine illustrative Operationsgeste360 . Die Operationsgeste kann bei Block364 beginnen, wo die Kontaktanordnung, die mit einer ersten Hand assoziiert ist, erkannt wird. Nach Block364 kann die Operation nach Block366 weitergehen, wo ein Gestensatz auf der Grundlage einer Kontaktanordnung, die mit der ersten Hand assoziiert ist, geladen wird. Nach Block366 kann die Operation nach Block368 weitergehen, wo eine zweite Kontaktanordnung, die mit einer zweiten Hand assoziiert ist, erkannt wird. Nach Block368 kann die Operation nach Block370 weitergehen, wo der Gestensatz der ersten Kontaktanordnung auf der Grundlage der zweiten Kontaktanordnung geändert oder modifiziert wird. Wie erkannt werden sollte, kann die zweite Hand verwendet werden, um schnell zwischen verschiedenen Gestensätzen wie benötigt zu modulieren. Dies kann auch eine größere Bandbreite an möglichen Gestensätzen ermöglichen. Wenn z. B. die erste Hand fünf Gestensätze auf der Grundlage der Fingeranzahl zur Verfügung stellen kann und die zweite Hand fünf Modifizierer auf der Grundlage der Fingerzahl liefern kann, dann können 100 Gestensätze erzeugt werden. - Um ein Beispiel von
19 zu zitieren, wo ein Berührungsfeld verwendet wird, kann der Benutzer zwei Finger auf dem Berührungsfeld platzieren und dadurch einen Gestensatz initiieren, der mit den zwei Fingern assoziiert ist. Der Benutzer kann Gestenereignisse unter Verwendung der zwei Finger durchführen. Der Benutzer kann entscheiden, dass er eine Aktion durchführen muss, die nicht vom zwei Finger Gestensatz angeboten wird. Der Benutzer kann daher zwei Finger von der gegenüberliegenden Hand heruntersetzen. Dies kann einen völlig neuen Gestensatz laden, der durch die erste Hand durchzuführen ist. -
20 zeigt eine illustrative Steueroperation380 . Die Steueroperation kann bei Block382 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Zum Beispiel kann eine Maus mit einem Laptop Computer verbunden sein, der ein Berührungsfeld umfasst. Nach Block382 kann die Operation nach Block384 weitergehen, wo die Maus bezüglich Mausereignissen überwacht wird (z. B. Bewegen eines Cursors, Tastenklicken, Scrolling). Gleichzeitig kann in Block386 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. In Block388 können Mausoperationen in Übereinstimmung mit Mausereignissen durchgeführt werden. Gleichzeitig können in Block390 Gestenoperationen in Übereinstimmung mit Gestenereignissen durchgeführt werden. Dieses Verfahren ermöglicht es einem Benutzer, eine Maus mit einer Hand zu steuern, während er mit der gegenüberliegenden Hand Gesten durchführt. Der Benutzer kann daher produktiver sein. - In einem Beispiel von
20 kann in einem Tabellenkalkulationsprogramm ein Benutzer Zellen unter Verwendung der Maus anwählen, dann eine Kopiergeste mit der gegenüberliegenden Hand auf einer Berührungsoberfläche durchführen. Der Benutzer kann dann durch die Tabelle unter Verwendung einer Scroll- oder Schwenkgeste scrollen oder schwenken. Sobald eine gewünschte Stelle gefunden wird, kann der Benutzer die gewünschten Zellen oder Zelle zum Einfügen unter Verwendung der Maus anwählen und dann eine Einfügegeste durchführen. -
21 zeigt eine illustrative Steueroperation400 . Die Steueroperation kann bei Block402 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Nach Block402 kann die Operation nach Block404 weitergehen, wo die Maus bezüglich Mausereignissen (z. B. Bewegen eines Cursors, Tasten, Klicken, Scrolling) überwacht wird. Gleichzeitig kann in Block406 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. Danach kann in Block408 der Mausmodus auf der Grundlage einer Berührung oder Gestenereignissen geändert werden, die auf der Berührungsoberfläche durchgeführt werden. Zum Beispiel kann die berührende Hand verwendet werden, um die Funktionalität der Maus, die mit der anderen Hand bedient wird, zu modifizieren. - Zum Beispiel kann die Anwesenheit eines Fingers auf der Berührungsoberfläche die Maus von einem Nachverfolgungsmodus in einen Scrollmodus wechseln lassen.
-
22 zeigt eine illustrative Steueroperation410 . Die Operation kann bei Block412 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Nach Block412 kann die Operation nach Block414 weitergehen, wo die erste Kontaktanordnung erkannt wird. Dies kann z. B. mit einer ersten Hand erreicht werden. Gleichzeitig kann in den Blöcken416 und418 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block420 kann der Gestensatz für die erste Kontaktanordnung geladen werden. Gleichzeitig kann in Block422 der Gestensatz für die zweite Kontaktanordnung geladen werden. In Block424 kann die erste Berührung bezüglich erster Gestenereignisse überwacht werden. Gleichzeitig kann in Block426 die zweite Berührung bezüglich zweiter Gestenereignisse überwacht werden. In Block428 können Aktionen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block430 Aktionen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden. -
23 zeigt eine illustrative Steueroperation440 . Die Operation440 kann bei Block442 starten, wo ein GUI Objekt angezeigt wird. Danach können in Block444 mehrere Zeiger an verschiedenen Punkten des angezeigten GUI Objekts detektiert werden. Im Fall eines Berührungsbildschirms können die ersten Zeiger (ein) Finger von einer ersten Hand sein und der zweite Zeiger kann (ein) Finger von einer zweiten Hand sein. Im Fall eines Berührungsfeldes kann der erste Zeiger ein Cursor sein, der von einer ersten Hand gesteuert wird und der zweite Zeiger kann ein Cursor sein, der von einer zweiten Hand gesteuert wird. Sobald die Zeiger detektiert sind, können die Zeiger auf das angezeigte Objekt in Block445 arretiert werden. Dies kann z. B. durch Anhalten erreicht werden. Zum Beispiel kann der Benutzer die Zeiger an Punkten auf dem GUI Objekt positionieren und dann dort innehalten, bis die Zeiger arretiert sind. Danach kann in Block446 die Position der Zeiger relativ zu ihrer arretierten Position überwacht werden. Danach kann in Block448 das angezeigte Objekt modifiziert werden, wenn die Position eines oder mehrerer Zeiger relativ zu seiner arretierten Position bewegt wird. Zum Beispiel können die Attribute des GUI Objekts, die z. B. Ausrichtung, Größe und Form umfassen, modifiziert werden. - Um ein Beispiel von
23 zu zitieren, kann der Benutzer, um ein Objekt zu drehen, seine Zeiger auf das GUI Objekt positionieren und einen oder zwei Zeiger rotieren, wenn sie arretiert sind. Das GUI Objekt kann der Rotation des einen oder der zwei Zeiger folgen, wodurch seine Ausrichtung geändert wird. Um seine Größe zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und die zwei Zeiger zusammen oder voneinander wegschieben, wenn sie arretiert sind. Wenn sie zusammengeschoben werden, kann die Größe des Objekts verringert werden. Wenn sie auseinandergeschoben werden, kann die Größe des Objekts vergrößert werden. Um seine Form zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und einen Zeiger nach oben, unten, rechts links schieben, wenn er arretiert ist. Wenn er vom Objekt weggeschoben wird, kann das Objekt in der Schieberichtung größer gemacht werden. Wenn er zum Objekt hingeschoben wird, kann das Objekt in der Schieberichtung kleiner gemacht werden. -
24 zeigt eine illustrative Steueroperation450 . Die Operation kann bei Block452 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Dies kann z. B. durch eine erste Hand erreicht werden. Nach Block452 kann die Operation nach Block454 weitergehen, wo die erste Kontaktanordnung, die mit der ersten Berührung assoziiert ist, erkannt wird. Gleichzeitig kann in den Blöcken456 und458 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block460 kann die erste Berührung bezüglich ersten Gestenereignissen überwacht werden. Gleichzeitig kann in Block462 die zweite Berührung bezüglich zweiten Gestenereignissen überwacht werden. In Block464 können Zeigeoperationen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block466 Zeigeoperationen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden. -
25 zeigt eine illustrative Steueroperation470 . Die Steueroperation kann bei Block472 beginnen, wo eine Gruppe von anwählbaren Gegenständen angezeigt wird. Die Gruppe von anwählbaren Gegenständen kann z. B. eine Farbpalette oder eine Werkzeugleiste sein. Nach Block472 kann die Operation nach Block474 weitergehen, wo ein erster Zeigemechanismus über der Gruppe von selektierbaren Gegenständen detektiert wird. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Im Fall eines Berührungsfeldes kann der Zeigemechanismus ein Cursor oder ein Werkzeug sein, das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block476 kann der Gegenstand unter dem ersten Zeigemechanismus aktiviert (angewählt) werden. Der aktivierte Gegenstand kann auf der Position des Zeigemechanismus beruhen. Zum Beispiel kann der aktivierte Gegenstand hervorgehoben werden, wenn der erste Zeigemechanismus über dem Gegenstand positioniert wird. In Block478 kann ein zweiter Zeigemechanismus gleichzeitig über einem Fenster detektiert werden (z. B. arbeiten beide Zeigemechanismen gleichzeitig). Das Fenster kann z. B. eine Leinwand in einem Zeichen – oder Malprogramm sein. Im Fall eines Berührungsbildschirms kann der zweite Zeigemechanismus ein Finger oder eine Fingergruppe sein (von der gegenüberliegenden Hand wie der erste Zeigemechanismus). Im Fall eines Berührungsfelds kann der zweite Zeigemechanismus ein Cursor oder Werkzeug sein, der/das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block480 kann der angewählte Gegenstand auf den zweiten Zeigemechanismus angewendet werden. Zum Beispiel kann im Fall einer Werkzeugleiste die Werkzeugfunktionalität des zweiten Zeigemechanismus auf dem angewählten Gegenstand basieren. Weiterhin kann im Fall eines Berührungsfeldes das Werkzeug-UI Element sich mit der Funktionalität ändern, so dass der Benutzer weiß, welches Werkzeug aktiv ist (z. B. Bleistift, Pinsel usw.). Im Fall einer Palette kann die Ausgabe des zweiten Zeigermechanismus auf dem ausgewählten Gegenstand basieren. Wenn z. B. im Fall des Malens der Benutzer eine Farbe auf der Palette auswählt, wechselt die Ausgabe des zweiten Zeigers zu dieser Farbe. Der Benutzer kann daher die Farbe, die auf die Leinwand angewendet wird, sofort während einer Maloperation anpassen. -
26 zeigt eine illustrative Steueroperation500 . Die Steueroperation kann bei Block502 beginnen, wenn eine Gruppe von Mediengegenständen angezeigt wird. Die Mediengegenstände können z. B. Lieder, Videoclips, Filme, Fotos, Spiele und ähnliches sein. Die Mediengegenstände können z. B. durch ein Medienverwaltungsprogramm gesteuert werden. iPhoto und iTunes hergestellt von Apple Inc. aus Cupertino, sind Beispiele für Medienverwaltungsprogramme. In Block504 kann ein Zeigemechanismus über einem Gegenstand detektiert werden und dadurch den Gegenstand hervorheben. Der Zeigemechanismus kann z. B. durch eine Maus oder einen Handakkord (dominante Hand) gesteuert werden. In Block506 kann eine Berührung auf einer Berührungsoberfläche detektiert werden. Die Berührung kann durch die Hand durchgeführt werden, die der Hand, die mit dem Zeigemechanismus assoziiert ist, gegenüberliegt. Danach kann in Block508 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Danach können in Block510 Metadaten, die an die erkannte Kontaktanordnung gebunden sind, in den hervorgehobenen Gegenstand eingefügt werden. Jede der Kontaktanordnungen kann verschiedene Metadaten haben. Zum Beispiel kann ein einzelner Finger erste Metadaten haben, zwei Finger können zweite Metadaten haben, drei Finger können dritte Metadaten haben, vier Finger können vierte Metadaten haben, fünf Finger können fünfte Metadaten haben, usw. Die Metadaten für jede Kontaktanordnung können sich auf dieselbe Funktionalität beziehen oder sie können völlig verschiedene Funktionalitäten haben. - Um ein Beispiel von
26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu bewerten oder einzuordnen. Zum Beispiel kann ein einzelner Finger eine 1 Stern Einordnung an ein Lied binden, zwei Finger können eine 2 Stern Einordnung an ein Lied binden, drei Finger können eine 3 Stern Einordnung an ein Lied binden, vier Finger können eine 4 Stern Einordnung an ein Lied binden und fünf Finger können eine 5 Stern Einordnung an ein Lied binden. - Um ein weiteres Beispiel von
26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu identifizieren. Zum Beispiel kann ein einzelner Finger eine erste Person (z. B. Ehefrau Darcy) an ein Foto binden, ein zweiter Finger kann eine zweite Person (z. B. Tochter Halley) an ein Foto binden, ein dritter Finger kann eine dritte Person (z. B. Cousin Camden) an ein Foto binden, ein vierter Finger kann eine vierte Person (Onkel Chance) an ein Foto binden und ein fünfter Finger kann eine fünfte Person (z. B. Großmutter Shery) an ein Foto binden. Tippen kann verwendet werden, um die Liste zu vergrößern. Zum Beispiel kann die Anzahl an Fingern beim ersten Absetzen der Anzahl an Fingern beim zweiten Absetzen hinzugefügt werden, um eine endgültige Kontaktanordnung zu erzeugen. Drei Finger gefolgt von zwei Fingern können immer noch die fünfte Person bedeuten. Während fünf Finger und ein Finger (im ganzen 6 Finger) eine sechste Person (z. B. Großmutter Terry) an ein Foto binden können. Weiterhin können fünf Finger und zwei Finger eine siebte Person (z. B. Hund Prima) an ein Foto binden, fünf Finger und drei Finger können eine achte Person (Freundin Lisa) an ein Foto binden, fünf Finger und vier Finger können eine neunte Person an ein Foto binden und fünf Finger und fünf Finger können eine zehnte Person an ein Foto binden. Alternativ können die Metadaten nicht mit einer Person sondern mit einer anderen Eigenschaft von Fotos assoziiert werden (z. B. Ferien, Kalifornien, Landschaft, Familie usw.). - Im Allgemeinen kann es das Medienverwaltungsprogramm verlangen, in einen Metadaten-Einfügungsmodus gebracht zu werden. Dies kann herkömmlicherweise durch Steuerung auf dem Bildschirm oder alternativ durch den Akkord erreicht werden, der mit den Zeigemechanismen verbunden ist.
-
27 zeigt eine illustrative Steueroperation520 . Die Steueroperation kann bei Block522 beginnen, wo ein Steuerobjekt angezeigt wird. Das Steuerobjekt kann z. B. eine Schaltfläche, Wählscheibe, Schieber, Schalter usw. auf dem Bildschirm sein. In Block524 kann eine Berührung über dem Steuerobjekt detektiert werden. Danach kann in Block526 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Im Block527 kann eine Bestimmung gemacht werden, ob die Kontaktanordnung mit der Kontaktanordnung, die mit Steuerung des Steuerobjekts assoziiert ist, übereinstimmt oder nicht. Wenn sie nicht übereinstimmt, kann die Operation nach Block528 weitergehen, wo die Berührung ignoriert wird. Wenn sie übereinstimmt, kann die Operation nach Block530 weitergehen, wo die Berührung bezüglich eines Gestenereignisses überwacht wird, das mit Steuern des Steuerobjekts assoziiert ist. Wenn ein Gestenereignis durchgeführt wird, kann die damit assoziierte Aktion auf das Steuerobjekt angewendet werden, so dass das Steuerobjekt seine Befehle erzeugen kann (Block432 ). - In einer Ausführungsform von
27 kann eine Kontaktanordnung, die Steuern des Steuerobjekts initiiert, auf mehreren Kontakten basieren, während die Kontaktanordnung, die ignoriert wird, auf einem einzelnen Kontakt basieren kann. -
28 zeigt eine illustrative Steueroperation540 . Die Steueroperation540 kann unter Verwendung eines Steuerfelds, wie dem in29 gezeigten durchgeführt werden. Die Operation kann bei Block542 beginnen, wo eine Liste von Eingabefunktionen zur Verfügung gestellt wird. Die Eingabefunktionen können Befehle und Gestenereignisse haben, die mit den Befehlen verbunden sind. Die Befehle können sich auf die Eingabefunktionen beziehen. Wenn die Eingabefunktion z. B. Editieren ist, dann können die Befehle Abbrechen, Rückgängig, Einfügen, Rückwärts Tabulator, Kopieren, Tabulator, Ausschneiden, Wiederherstellen und Alles Anwählen sein. Die Gestenereignisse können Aktionen sein, die durch einen Akkord durchgeführt werden. Die Gestenereignisse können Rotationen umfassen (im Uhrzeigersinn und gegen den Uhrzeigersinn), Verschiebungen als eine Gruppe (hoch, hinunter, rechts, links), Verschiebungen relativ zueinander (gespreizt, geschlossen), Tippen usw. Die Gestenereignisse können mit Befehlen auf eine intuitive Weise verbunden werden. Zum Beispiel kann der Ausschneidebefehl durch Schließen der Finger zueinander ähnlich einer Ausschneideaktion initiiert werden. - Weiterhin sind komplementäre Befehle (ausschneiden, einfügen) typischerweise mit komplementären Gestenereignissen (spreizen/schließen) verbunden. In Block
544 kann die Eingabefunktion einem bestimmten Akkord zugeordnet werden. Ein Akkord kann eine Fingeranordnung sein. Die Akkorde können in einer Liste angezeigt werden, so dass der Benutzer einen bestimmten Akkord hervorhebt und dann eine bestimmte Eingabefunktion auswählt. Akkorde können mehreren Eingabefunktionen zugeordnet werden. - In Block
544 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Menü von Eingabefunktionen auswählt und dann einen Akkord aus einer Menüliste von Akkorden auswählt (z. B. hebe Eingabefunktion hervor und wähle dann Akkord aus). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zukünftige Operationen gebunden werden (Block546 ). In manchen Fällen kann das Akkordmenü eine Angabe der Eingabefunktion umfassen, die ihm zugeordnet ist. In dieser speziellen Ausführungsform können Befehle bereits Gestenereignissen zugeordnet sein. - Die
29A bis G sind Diagramme eines Steuerfelds550 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.29A zeigt ein grundlegendes Steuerfeld, während die29B bis29G mehrere Beispiele einer Steuerfeldimplementierung zeigen. - Wie in
29A gezeigt, kann das Steuerfeld550 eine Gestenabbildungssteuerung552 in der Form eines herunterziehbaren Fensters umfassen. Wenn ein Benutzer das herunterziehbare Fenster auswählt, können dem Benutzer eine oder mehrere Gestenabbildungsoptionen dargelegt werden. Dem Benutzer kann eine Standardeinstellung dargelegt werden (normalerweise durch den Hersteller gesetzt), oder alternativ kann der Benutzer eine Benutzereinstellung wählen, so dass er seine eigene Gestenabbildung bilden kann. Es kann mehr als eine Benutzerabbildung geben. Zum Beispiel können verschiedene Benutzer unterschiedliche Abbildungen erzeugen. Wenn ein Benutzer das Steuerfeld öffnet, kann er die gewünschte Benutzerabbildung durch Auswählen der Gestenabbildungssteuerung und dann Bewegen durch die Liste an Benutzerabbildungen über eine Hervorhebungsleiste auswählen. Sobald eine gewünschte Abbildung gefunden wird, kann der Benutzer sie einfach hervorheben und dann ein erstes Klicken durchführen, um die gewünschte Gestenabbildung einzustellen. Danach kann der Benutzer ihre Einstellungen ändern. - Das Steuerfeld
550 kann auch ein Menü von Eingabefunktionen554 umfassen, auch in der Form eines Fensters zum Herunterziehen. Wenn ein Benutzer das Fenster zum Herunterziehen auswählt, kann dem Benutzer eine Liste von einer oder mehreren Eingabefunktionen dargestellt werden. Die Eingabefunktionen können z. B. keine, Punkt, Punkt/Klick, scrollen, scrollen und sekundärer Klick, primärer Klick und Ziehen, sekundärer Klick und Ziehen, Fenster bewegen, Freilegen und Instrumententafel, Webbrowseroperationen, Editieroperationen, Dateioperationen und ähnliches umfassen. Um eine der Eingabefunktionen hervorzuheben, kann dem Benutzer eine Hervorhebungsleiste zur Verfügung gestellt werden, die durch die Liste in Übereinstimmung mit den Benutzersteuerungen läuft. - Steuerfeld
550 kann auch einen Gestensatzabschnitt556 umfassen, der Befehle zeigt, die mit der Eingabefunktion assoziiert sind, die hervorgehoben ist und Gestenereignisse, die den Befehlen zugeordnet sind. Der Gestensatzabschnitt kann nur der Rückmeldung dienen, aber er kann auch die Funktionalität des Zuordnens von Befehlen zu Gestenereignissen (oder umgekehrt) umfassen. Obwohl das Fenster stark abgewandelt werden kann, kann das Fenster in der dargestellten Ausführungsform getrennte Felder enthalten, von denen jedes ein Gestenereignis und einen Befehl enthält, der damit assoziiert ist. In dieser Ausführungsform können die Felder in einer 3 × 3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle für jede Eingabefunktion geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn angeordnet sein, Ausbreiten kann gegenüber Zusammenziehen angeordnet sein, Linksschwenk kann gegen über Rechtsschwenk angeordnet sein, Schwenk nach oben kann gegenüber Schwenk nach unten angeordnet sein. Wenn möglich, können komplementäre Befehle mit gegenüberliegenden Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden. - Steuerfeld
550 kann auch ein Akkordmenü558 umfassen. Die Akkorde können übereinander angeordnet sein und sich durch ein Fenster mittels einer Scrollleiste bewegen. Die Akkorde können Textidentifikatoren sowie Akkordidentifikatoren enthalten, die Beispiele zeigen, wie der Akkord zu machen ist. In der dargestellten Ausführungsform kann der Akkordindikator die Form einer Hand haben, wobei abgedunkelte Kreise die Finger abdecken, die verwendet werden, um den Akkord zu machen. Die Akkorde können auch Textidentifikatoren für die Eingabefunktion haben, die dem Akkord zugeordnet ist. - In einer Ausführungsform kann der Benutzer, um die Gestenabbildung einzurichten, eine Eingabefunktion hervorheben und dann zum Akkordmenü verschieben. Beim Akkordmenü angekommen, kann der Benutzer einen gewünschten Akkord für diese Eingabefunktion auswählen, indem er die Akkordliste durchläuft, den gewünschten Akkord hervorhebt und dann ein Auswahlereignis, wie z. B. über einen Klick durchführt. Danach kann die Eingabefunktion dem Akkord zugeordnet werden. In manchen Fällen kann, sobald der Benutzer die Eingabefunktion dem Akkord zuordnet, der Eingabefunktionsidentifikator im Akkordmenü zusammen mit dem Akkord untergebracht werden. Weiterhin kann die Eingabefunktion einen Identifikator enthalten, der anzeigt, dass sie zugewiesen wurde. Zum Beispiel kann ein Haken durch die zugewiesene Eingabefunktion platziert werden. Während Operationen kann, wenn ein Benutzer die Fingeranordnung, die im Akkordmenü gezeigt ist, auf der Mehrpunkt Berührungsoberfläche platziert, die Fingeranordnung als der Akkord erkannt werden, und danach kann der Gestensatz, der mit der Eingabefunktion assoziiert ist, die dem Akkord zugewiesen ist, als der primäre oder aktive Gestensatz gesetzt werden.
-
29B zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Freilegen/Instrumententafeleingabefunktion dem 4-Finger-Akkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Freilegen/Instrumententafeleingabefunktion assoziiert sind, und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Alles Freilegen einleiten, ein Schwenk nach rechts kann Schreibtisch Freilegen einleiten, ein Schwenk nach links kann Anwendungen Freilegen einleiten und ein Schwenk nach unten kann Instrumententafel einleiten. -
29C zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion primärer Klick und Ziehen dem 3 Fingerakkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Klick und Ziehen assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in jede Richtung verwendet werden, um ein Objekt zu ziehen und ein Tippen kann verwendet werden, um ein Klicken einzuleiten. -
29D zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Dateioperation dem Akkord Daumen + 1 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Dateioperation assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Rotationsschwenk gegen den Uhrzeigersinn verwendet werden, um Öffnen einzuleiten, ein Rotationsschwenk im Uhrzeigersinn kann verwendet werden, um Schließen einzuleiten, Spreizen kann für Neu und "ZUSAMMENZIEHEN" kann für Speichern verwendet werden. -
29E zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Editieroperationen dem Akkord Daumen + 2 Finger zuordnen kann. Weiterhin kann der Gestensatz die Kommandos zeigen, die mit der Editieroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Rückgängig einleiten, ein Schwenk nach rechts kann Tabulator einleiten, ein Schwenk nach links kann rückwärts Tabulator Anwendungen einleiten und ein Schwenk nach unten kann Wiederherstellen einleiten. Weiterhin kann ein Rotationsschwenk gegen den Uhrzeigersinn Abbrechen einleiten, ein Rotationsschwenk im Uhrzeigersinn kann Alles Auswählen einleiten, Spreizen kann Einfügen einleiten und Zusammenziehen kann Ausschneiden einleiten. Weiterhin kann ein Tippen Kopieren einleiten. -
29F zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Webbrowseroperationseingabefunktion dem Akkord Daumen + 3 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Webbrowseroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Schwenk nach oben Anhalten einleiten, ein Schwenk nach rechts kann Vor einleiten, ein Schwenk nach links kann Rück einleiten, ein Schwenk nach unten kann Neu Laden einleiten. Weiterhin kann ein Schwenk nach links oben Startseite einleiten, ein Schwenk nach rechts oben kann Hervorheben einleiten, ein Schwenk nach links unten kann Suchen einleiten und ein Schwenk nach rechts unten kann Lesezeichen einleiten. -
29G zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Zeige Eingabefunktion dem Akkord Daumen + 4 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Zeige Eingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in irgendeine Richtung zum Zeigen verwendet werden. -
30 zeigt eine illustrative Steueroperation580 . Die Steueroperation580 kann unter Verwendung eines Steuerfeldes, wie dem in29 gezeigten durchgeführt werden. Die Operation kann in Block582 beginnen, wo eine Liste an Eingabefunktionen zur Verfügung gestellt werden kann. Im Block584 kann eine Liste an Befehlen zur Verfügung gestellt werden, die mit den Eingabefunktionen assoziiert sind. In Block586 kann eine Akkordliste zur Verfügung gestellt werden. In Block588 kann eine Liste von Gestenereignissen zur Verfügung gestellt werden, die mit den Akkorden assoziiert sind. Im Block590 kann die Eingabefunktion einem Akkord zugeordnet werden (oder umgekehrt). Im Block592 können die Befehle den Gestenereignissen zugeordnet werden. In einer alternativen Operation kann die Operation580 umfassen, eine Liste aller zur Verfolgung stehenden Befehle zu liefern, anstatt eine Liste mit einer bestimmten Eingabefunktion assoziiert zu haben. Der Benutzer kann der Eingabefunktion irgendeinen Befehl zuordnen. Auch in einer alternativen Operation kann die Operation umfassen, eine Liste aller zur Verfügung stehender Gestenereignisse zu liefern, anstatt eine Liste mit einem bestimmten Akkord assoziiert zu haben. - Unter Bezugnahme auf
29 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Eingabefunktionsmenü auswählt und dann einen Akkord aus einer Akkordmenüliste auswählt. (z. B. Eingabefunktion hervorheben und dann Akkord auswählen). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zukünftige Operationen gebunden werden. In manchen Fällen kann das Akkordmenü eine Anzeige der Eingabefunktion umfassen, die ihm zugeordnet sind. Weiterhin kann der Benutzer Befehle Gestenereignissen zuordnen, indem er die Befehle über eine Geste zieht. Zum Beispiel kann der Benutzer einen bestimmten Befehl auswählen und ziehen und lässt ihn über dem gewünschten Gestenereignis fallen. Danach kann das Gestenereignis Tür zukünftige Operationen gebunden werden. -
31 zeigt ein illustratives Gestenabbildungsverfahren600 . Das Abbilden600 kann bei Block602 beginnen, wo das System in einen Gestenabbildungsmodus gebracht wird. Sobald es im Gestenabbildungsmodus ist, kann eine Berührung in Block604 detektiert werden. Danach kann in Block606 die Anordnung der Kontakte gespeichert werden, die mit der Berührung assoziiert sind. Zum Beispiel kann ein Bild der Kontaktordnung erzeugt werden. Danach kann in Block608 die Berührung auf ein Gestenereignis hin überwacht werden. Danach kann in Block610 das Gestenereignis gespeichert werden. Danach kann in Block612 ein Befehl der Kontaktordnung/dem Gestenereignis zugewiesen werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann, und indem das Gestenereignis durchgeführt wird. -
32 zeigt ein illustratives Gestenabbildungsverfahren620 . Das Gestenabbildungsverfahren620 kann bei Block622 beginnen, wo ein Befehlsmenü geöffnet werden kann. Das Befehlsmenü kann irgendeines der Menüs sein, die in der Kopfleiste einer Anwendung gefunden werden (z. B. Datei, Bearbeiten, Ansicht, Einfügen, Format, Werkzeuge, usw.). Wenn das Befehlsmenü geöffnet wird, kann eine Befehlsliste angezeigt werden (Block624 ). Nach Block624 kann eine Hervorhebungsleiste über einen Befehl in der Befehlsliste über eine Benutzersteuerung bewegt werden. Danach kann in Block626 eine Berührung auf einer Berührungsoberfläche detektiert werden, während ein Befehl hervorgehoben ist. Danach kann in Block628 die Kontaktanordnung, die der Berührung zugeordnet ist, abgebildet und gespeichert werden. Danach kann in Block630 die Berührung bezüglich eines Gestenereignisses überwacht werden. Danach kann in Block632 ein Gestenereignis abgebildet und gespeichert werden, wenn es durchgeführt wird. Danach können in Block634 die anfängliche Kontaktanordnung und die Gestenereignisse dem hervorgehobenen Befehl zugeordnet werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann und indem das Gestenereignis durchgeführt wird. -
33 zeigt ein illustratives Gestenrückmeldungsverfahren640 . Das Verfahren640 kann bei Block642 beginnen, wo eine Berührung detektiert wird. Danach kann in Block644 die Kontaktanordnung erkannt werden. Danach kann in Block646 der Gestensatz basierend mindestens teilweise auf der Kontaktanordnung geladen werden. Danach kann in Block648 eine Pause während der Berührung detektiert werden (z. B. kein Gestenereignis wird während einer Zeitspanne durchgeführt). Danach kann in Block650 der Gestensatz angezeigt werden, so dass der Benutzer Befehle und Gestenereignisse, die an ihn gebunden sind, betrachten kann (siehe z. B.34 ). Danach kann in Block652 der Gestensatz von der Anzeige entfernt werden, wenn ein Gestenereignis begonnen wird oder nach einem vorgesetzten Zeitablauf. -
34 zeigt ein illustratives Gestenbetrachtungsfenster660 . Ein Gestenbetrachtungsfenster kann ein Gestenmenü sein, das sich öffnet und Informationen darüber enthält, wie ein Gestenereignis durchzuführen ist und welcher Befehl eingeleitet werden wird, wenn das Gestenereignis durchgeführt wird. Der Benutzer kann daher den Gestensatz schnell im Gedächtnis einprägen, bevor er ein Gestenereignis durchführt. Das Gestenfenster660 kann ein halbdurchlässiges oder undurchsichtiges Fenster sein, das in der Nähe des ersten Berührungspunkts (oder der Pause) und über beliebigen anderen angezeigten Informationen angezeigt wird. Obwohl das Fenster stark abweichen kann, kann in der illustrierten Ausführungsform das Fenster660 getrennte Felder662 enthalten, von denen jedes ein Gestenereignis664 und einen Befehl667 enthält, der mit ihm assoziiert ist. In dieser Ausführungsform können die Felder in einer 3 × 3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann sich Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn befinden, Spreizen kann sich gegenüber Zusammenziehen befinden, Linksschwenk kann sich gegenüber Rechtsschwenk befinden, Schwenk nach oben kann sich gegenüber Schwenk nach unten befinden. Wenn möglich können komplementäre Befehle mit entgegen gesetzten Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden. Im Fall von Ausschneiden und Einfügen kann z. B. Ausschneiden mit Zusammenziehen assoziiert werden, während Einfügen mit Spreizen assoziiert werden kann. Weiterhin kann ein anderes mit einem Tippen assoziiert werden (dargestellt durch einen Kreis). -
35 zeigt ein illustratives Tastaturverfahren680 , das über einen Berührungsbildschirm implementiert ist. Das Verfahren680 kann bei Block682 beginnen, wo eine Berührungsbildschirmstastatur aktiviert wird (z. B. angezeigt und bereit zum Empfang von Eingabe). Danach kann in Block684 die Berührungsoberfläche bezüglich Tasteneingaben überwacht werden (z. B. ein Finger, der auf eine angezeigte Taste tippt). Gleichzeitig kann in Block686 die Berührungsoberfläche bezüglich wischender Gestenereignisse überwacht werden. Wenn das wischende Gestenereignis ein Rechtsschwenk ist, kann ein Leerzeichenbefehl durchgeführt werden (Blöcke688 und690 ). Wenn das wischende Gestenereignis ein Linksschwenk ist, kann ein Rücktaste-/Löschbefehl durchgeführt werden (Blöcke692 und694 ). Wenn das wischende Gestenereignis ein Schwenk nach unten ist, kann ein Eingabe-/Rücklaufbefehl durchgeführt werden (Blöcke696 und698 ). Wenn das wischende Gestenereignis ein Schwenk nach oben ist, kann ein Seitenumbruchsbefehl durchgeführt werden (Blöcke700 und702 ). Es sollte jedoch bemerkt werden, dass das Verfahren nicht auf diese Befehle beschränkt ist und dass andere Befehle durchgeführt werden können. - Mit so vielen Akkordkombinationen, Gestenereignissen, Befehlen zur Auswertung kann es hilfreich sein, Stärke und Schwäche zu isolieren und eine Anleitungstheorie zu entwickeln, welche Akkorde und Gestenereignisse gut zu welchen Befehlen passen. Es wird im Allgemeinen angenommen, dass Langzeitbenutzererfahrung durch Zuordnung der besten Fingerkombinationen mit den häufigsten Befehlen maximiert werden kann. Mittelmäßige Fingerkombinationen sollten nur für weniger häufige Befehle verwendet werden. Wegen subtiler Themen wie etwa Überlagerung ist es jedoch nicht alleine ausreichend, diesem Prinzip zu folgen, um eine großartige Benutzererfahrung zu erzeugen.
-
36 zeigt einen illustrativen Gestenentwurfsprozess720 . Der Entwurfsprozess720 umfasst Block702 , wo die einfachsten Akkorde bewertet oder aufgelistet werden. Die Akkorde können z. B. auf der Grundlage von Geschwindigkeit, Verlässlichkeit, Komfort und Benutzerfreundlichkeit, Einfachheit usw. bewertet werden. Dies kann auch auf einer Größe der Berührungsoberfläche beruhen, da kleinere Oberflächen nicht alle Fingerkombinationen aufnehmen können.37 zeigt ein Beispiel einer Matrix zum Bewerten von Akkorden. Es sollte erkannt werden, dass diese Matrix beispielhaft ist und nicht der Beschränkung dient. - Der Entwurfsprozess enthält auch Block
704 , wo die Operationshäufigkeit bewertet oder angeordnet wird. Zum Beispiel wie oft ein bestimmter Benutzer oder eine Benutzergruppe einen bestimmten Operationssatz durchführt. Häufigkeitsanordnungen können gemäß den Proportionen von Operationen relativ zueinander (z. B. Websurfen gegenüber Editieren) variieren.38 zeigt ein Beispiel einer Matrix zum Einordnen von Operationshäufigkeit für ein paar Operationen. Es sollte erkannt werden, dass diese Liste nur als Beispiel dient und nicht zur Abgrenzung, da es noch viel mehr Operationen gibt. - Der Entwurfsprozess kann auch Block
706 umfassen, wo die einfachsten Akkorde im Wesentlichen mit den häufigsten Operationen gruppiert oder gepaart werden und die schwierigsten Akkorde im Wesentlichen mit den seltensten Operationen gruppiert oder gepaart werden. - Der Entwurfsprozess kann auch Feinabstimmen der Gruppen umfassen. Das Feinabstimmen kann auf vielen Faktoren beruhen, einschließlich komplementäre Befehle, Intuitivität, Überlagerung, sinnvolle Anordnung usw. Wie erkannt werden sollte, kann der Entwurfsprozess nicht so einfach sein, wie das Zusammenführen des einfachsten Akkords mit der häufigsten Operation. In manchen Fällen kann der einfachste Akkord für die häufigste Operation keinen Sinn machen. Als solche können die Akkorde und Operationen verschoben werden, während man immer noch versucht, einfach mit am häufigsten und schwierig mit am wenigsten häufig beizubehalten.
-
39 zeigt eine illustrative Steueroperation740 . Die Steueroperation kann bei Block742 starten, wo eine Basisgestenzuordnung zur Verfügung gestellt wird. Die Basisgestenzuordnung kann Gestenvorzugseinstellungen enthalten, die z. B. Akkorde, Befehle, Gestenereignisse usw. enthalten. Nach Block742 kann die Operation nach Block744 weitergehen, wo ein erstes Programm aktiv gemacht wird. Das Programm kann z. B. ein Textverarbeitungsprogramm, ein Medienverwaltungsprogramm, ein Tabellenkalkulationsprogramm, ein Medieneditierungsprogramm, ein Zeichenprogramm usw. sein. In Block746 kann die Basisgestenabbildung angepasst werden, in Übereinstimmung mit dem ersten Programm, während das erste Programm aktiv ist. Zum Beispiel kann das Programm der Basisgestenabbildung anordnen, die Bedeutungen von Akkorden und Gestensätzen für dieses bestimmte Programm zu ändern. Im Block748 kann ein zweites Programm aktiv gemacht werden. In Block750 kann die Basisgestenanordnung in Übereinstimmung mit dem zweiten Programm angepasst werden, während das zweite Programm aktiv ist. - In einem Beispiel aus
39 kann ein Medieneditierprogramm die Gestenabbildung wie folgt anpassen: ein Finger zum Zeigen, zwei Finger zum Bewegen, Skalieren, Rotieren von Objekten; drei Finger zum primären Ziehen; vier Finger für einen Scrollschwenk; 5 Finger zum Zeigen, während ein Textverarbeitungsprogramm die Gestenabbildung wie folgt anpassen kann: 2 Finger zum Zeigen mit Textcursor, 3 Finger zum Selektieren von Text, 4 Finger zum Blättern, Zeilenanfang und Zeilenende. -
40 zeigt eine illustrative Steueroperation760 . Die Steueroperation kann mit einem Gestensatz, wie etwa demjenigen, der mit einem drei Fingerakkord implementiert ist, assoziiert werden. Die Steueroperation kann bei Block762 beginnen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach rechts detektiert wird oder nicht. Wenn ja, kann die Operation nach Block764 fortschreiten, wo eine erste Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block766 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach links detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block770 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach oben detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block772 weitergehen, wo eine dritte Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block774 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schwenk nach unten detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block776 weitergehen, wo eine Instrumententafelfunktion eingeleitet wird. Wenn nein, kann die Operation zurück nach762 weitergehen. -
41 zeigt eine illustrative Steueroperation780 . Die Steueroperation kann bei Block782 starten, wo ein Basisakkord detektiert wird. Der Basisakkord kann z. B. ein drei Finger Akkord sein. Während des Berührungsanschlags wird eine Pause detektiert (Block784 ). Danach kann in Block786 ein Kontextmenü wegen der Pause des Basisakkords geöffnet werden. Danach kann in Block788 eine Bestimmung gemacht werden, ob ein Gleiten nach oben oder unten entdeckt wird oder nicht. Wenn dem so ist, kann die Operation nach Block790 weitergehen, wo eine Hervorhebungsleiste durch das Kontextmenü in Übereinstimmung mit der Gleitbewegung bewegt wird. Danach kann in Block792 eine Bestimmung gemacht werden, ob ein Tippen detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block794 weitergehen, wo die Funktionalität des hervorgehobenen Eintrags implementiert wird. - Instrumententafel beherbergt Widgets: Minianwendungen, mit denen man allgemeine Aufgaben durchführen kann und die einem schnellen Zugriff auf Informationen zur Verfügung stellen. Mit einem Wischen kann Instrumententafel erscheinen, vollständig mit Widgets, die einem Benutzer eine Welt von Informationen bringen – Echtzeitwetter, Aktienticker, Fluginformationen und weiteres – sofort. Instrumententafel kann genauso einfach verschwinden, so dass ein Benutzer zu dem was er gerade tat, zurückkehren kann. Instrumententafel wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.
- Freistellen ermöglicht es Benutzern, sofort auf jedes offene Fenster mit einem einzigen Wischen – und erstaunlichem Stil zuzugreifen, der nie imitiert werden kann. Zeige alle offenen Fenster als Vorschaubilder an, betrachte Fenster der aktuellen Anwendung oder verberge alle Fenster, um schnell eine Datei auf deinem Schreibtisch aufzufinden. Freistellen wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.
- Die
42 bis44 zeigen verschiedene Gestenzuordnungen. Jede Figur umfasst vier Überschriften: 1) Hand, 2) # an Fingern (Akkord), 3) Gestenereignis und 4) mit dem Gestenereignis assoziiertes Verhalten oder Aktion. - Die
45 bis48 zeigen verschiedene Gestensätze. In all diesen Figuren umfassen die Gestensätze verschiedene Bewegungen, die durch Pfeile (Wischen, Rotationen, Spreizen/Zusammenziehen) gezeigt werden, und ein oder mehrere Tippen, die durch Kreise gezeigt werden. Sie umfassen auch Befehle, die an die Bewegungen, über denen sie liegen, gebunden sind. Die Gestensätze können auf verschiedene Akkorde in Abhängigkeit der Benutzerbedürfnisse angewendet werden. In einem Beispiel kann der Gestensatz aus45 auf einen Akkord aus einem Daumen + 1 Finger angewendet werden, der Gestensatz aus46 kann auf einen Akkord aus einem Daumen + 2 Finger angewendet werden, der Gestensatz aus47 kann auf einen Akkord aus einem Daumen + 3 Finger angewendet werden und der Gestensatz aus48 kann aus einem Akkord aus gespreiztem Daumen und 3 Fingern angewendet werden. Es sollte verstanden werden, dass diese Gestensätze sowie die Akkorde als Beispiel angegeben werden und nicht zur Abgrenzung. Zum Beispiel können im Fall der Gestensätze verschiedene Befehle verwendet werden, verschiedene Gestenereignisse können verwendet werden, verschiedene Zuordnungen können gemacht werden, usw. - Zusätzliche Ausführungsformen, die sich auf die
8 bis11 beziehen werden jetzt beschrieben werden. -
49 zeigt eine illustrative Gestenoperation800 . Die Operation800 kann bei Block802 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block804 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers entsprechen, der Position des Fingers relativ zur Berührungsoberfläche, ob der Finger sich bewegt oder stationär ist, der Richtung der Fingerbewegungen und ähnlichem. Danach können in Block806 ein oder mehrere zusätzliche Finger detektiert werden. Zum Beispiel kann neben dem ersten Finger ein unterschiedlicher zweiter Finger detektiert werden. In Block808 kann der Zustand des einen oder der mehreren zusätzlichen Finger bestimmt werden. Danach können in Block810 verschiedene Eingabemodi auf der Grundlage eines Zeitverlaufs und von Zuständen des ersten und der zusätzlichen Finger relativ zueinander implementiert werden. Die verschiedenen Eingabemodi können stark abgewandelt werden, und sie können aus jedem derjenigen ausgewählt werden, die hier diskutiert werden oder aus jedem geeignetem oder bekannten Eingabemodus. Ein Beispiel eines Eingabemodus kann ein Zeigemodus oder Ziehmodus sein. Andere Modi können z. B. Scrollen, Schwenken oder ähnliches umfassen. - In einem Beispiel kann der Zustand des ersten Fingers stationär oder bewegend umfassen, und der Zustand eines zweiten Fingers kann umfassen, ob der zweite Finger anwesend ist oder nicht. In diesem Beispiel können Zeigeoperationen implementiert werden, wenn nur der erste Finger detektiert wird. Weiterhin können Zeigeoperationen nach Ziehoperationen umgeschaltet werden, wenn der zweite Finger detektiert wird, wenn der erste Finger stationär ist, und Zeigeoperationen werden aufrecht erhalten, wenn der zweite Finger detektiert wird, wenn sich der erste Finger bewegt. Dadurch kann ein Benutzer einfach zwischen Zeige-Ziehoperationen hin und her schalten. Der Benutzer kann z. B. einen Finger über die Berührungsoberfläche bewegen, um ihn oder einen Cursor über einem Dateiordner zu positionieren (z. B. Zeigen), den Finger oder Cursor über dem Dateiordner anhalten, einen zweiten Finger auf die Berührungsoberfläche absetzen, so dass angezeigt wird, dass gewünscht wird, den Dateiordner zu beziehen, und dann seinen ersten Finger auf eine andere Position bewegen, um den Dateiordner zu einer neuen Position zu ziehen. Der Benutzer kann fortfahren, seine Finger und damit den Dateiordner herum zu bewegen, oder einfach den ersten Finger aufleben, um den Dateiordner endgültig innerhalb des Bildschirms anzuordnen.
-
50 zeigt eine illustrative Gestenoperation820 . Die Operation820 kann bei Block822 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block824 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers, der Position des Fingers relativ zur Berührungsoberfläche, ob sich der Finger bewegt oder stationär ist, der Richtung der Fingerbewegungen oder ähnlichem entsprechen. Danach kann in Block826 ein erster Eingabemodus mit dem ersten Finger implementiert werden, wenn der erste Finger in einem ersten Zustand ist. In Block828 kann nach einem Modifizierfingerereignis Ausschau gehalten werden. Das Modifizierfingerereignis kann durch einen anderen als den ersten Finger geliefert werden. Es kann z. B. ein zweiter Finger sein. Das Ereignis kann die Anwesenheit eines zweiten Fingers sein oder es kann eine Art von Gestikulierungsereignis oder ein bestimmter Akkord sein. Danach kann in Block830 ein zweiter implementiert werden, wenn der erste Finger in einem zweiten Zustand ist und das Modifizierfingerereignis detektiert wird. Das Modifizierereignis kann z. B. die Anwesenheit eines zweiten Fingers neben dem ersten Finger sein. In einem Beispiel ist der erste Modus ein Zeigemodus und der zweite Modus ist ein Ziehmodus. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden. -
51 zeigt eine illustrative Gestenoperation840 . Die Operation840 kann bei Block842 beginnen, wo ein erster Finger anfangs detektiert wird. Danach kann in Block844 ein erster Modus, der mit dem ersten Finger assoziiert ist, implementiert werden, wenn der erste Finger bewegt wird. Danach kann in Block826 ein zweiter Finger detektiert werden, nachdem der erste Finger detektiert wird. In, Block828 kann der erste Modus auf einen zweiten Modus umgeschaltet werden, wenn der erste Finger stationär ist und die Anwesenheit eines zweiten Fingers detektiert wird. Die Anwesenheit des zweiten Fingers kann Positionsabhängig sein, wie z. B. von einer bestimmten Position auf der Berührungsoberfläche oder einer bestimmten Position relativ zum ersten Finger. In einem Beispiel sollte der zweite Finger in der Nähe des ersten Fingers detektiert werden. Danach kann in Block830 der zweite Modus mit mindestens dem ersten Finger implementiert werden, wenn der erste Finger bewegt wird. In einem Beispiel kann der erste Modus ein Zeigemodus sein, und der zweite Modus kann ein Ziehmodus sein. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden. -
52 zeigt eine illustrative Gestenoperation860 . Die Operation860 kann bei Block862 beginnen, wo eine Bestimmung gemacht wird, ob ein einzelner Finger detektiert wird. Der einzelne Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen können die Operationen z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen das Verfahren implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein einzelner Finger detektiert wird, kann die Operation nach Block864 weitergehen, wo eine Bestimmung gemacht wird, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block866 Zeigeoperationen mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der Finger nicht bewegt wird, kann in Block868 eine Bestimmung gemacht werden, ob ein zweiter Finger detektiert wird, während der erste Finger stationär ist. Wenn nein, kann die Operation zurück nach Block862 weitergehen. Wenn ja, kann die Operation nach Block870 weitergehen, wo eine Bestimmung gemacht wird, ob der erste Finger bewegt wird, nachdem der zweite Finger detektiert wird. Der zweite Finger kann sich mit dem ersten Finger bewegen müssen oder nicht. In den meisten Fällen kann der zweite Finger aufgehoben werden, so dass er nicht mehr detektiert wird. Wenn der erste Finger nicht bewegt wird, kann die Operation zurück nach Block868 weitergehen. Wenn der erste Finger bewegt wird, kann die Operation nach Block872 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden. -
53 zeigt eine illustrative Gestenoperation880 . Die Operation880 kann bei Block882 beginnen, wo eine Bestimmung gemacht wird, ob ein erster Finger detektiert wird oder nicht. Der erste Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen kann die Operation z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen die Operation implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein Finger detektiert wird, kann die Operation nach Block884 weitergehen, wo ein Zeigemodus implementiert wird. Danach kann in Block886 eine Bestimmung gemacht werden, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block888 nachfolgende Modifizierungsereignisse ignoriert werden. Zum Beispiel können zusätzliche detektierte Finger ignoriert werden und nur die Bewegung des ersten Fingers kann relevant sein. Danach können in Block890 Zeigeoperationen in Übereinstimmung mit dem sich bewegenden Finger durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der erste Finger stationär ist, kann die Operation nach Block892 weitergehen, wo nach einem Modifizierungsereignis gesucht wird. Ein Modifizierungsereignis kann z. B. das Hinzufügen eines Fingers sein, oder eine Geste, die durch einen neuen Finger gemacht wird, usw. Danach kann in Block894 eine Bestimmung gemacht werden, ob ein bestimmtes Modifizierungsereignis detektiert wird oder nicht. Wenn nein, kann die Operation zurück nach Block886 weitergehen. Wenn ja, kann die Operation nach Block896 weitergehen, wo das System vom Zeigemodus auf einen Ziehmodus umgeschaltet wird. Wenn der erste Finger bewegt wird, kann die Operation nach Block898 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden. -
54 zeigt ein illustratives elektronisches System950 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das elektronische System kann mit jeglichen der vorhergehenden Ausführungsformen konfiguriert sein. Das elektronische System950 kann einem Computersystem entsprechen, wie etwa einem Personalcomputersystem, das Desktops, Laptops, Tablets oder handgehaltene Computer umfasst. Das elektronische System kann auch anderen elektronischen Benutzergeräten entsprechen, wie z. B. handgehaltenen Geräten, einschließlich Mobiltelefonen, PDAs, spezielle Medienspieler und ähnliches. Natürlich kann das elektronische System auf andere elektronische Geräte angewendet werden. - Das beispielhafte System
950 , das in54 gezeigt ist, kann einen Prozessor956 umfassen, der konfiguriert ist, um Anweisungen auszuführen und Operationen auszuführen, die mit dem System950 assoziiert sind. Zum Beispiel kann der Prozessor956 unter Verwendung von Anweisungen, die z. B. aus dem Speicher empfangen werden, den Empfang und die Manipulierung von Eingabe- und Ausgabedaten zwischen Komponenten des Computersystems950 steuern. Der Prozessor956 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektronischen Komponenten implementiert werden. Zum Beispiel können verschiedene Architekturen für den Prozessor956 verwendet werden, einschließlich einem dedizierten oder eingebetteten Prozessor, einem Prozessor mit einer einzigen Aufgabe, einem Controller, ASIC usw. - In den meisten Fällen kann der Prozessor
956 zusammen mit einem Betriebssystem so arbeiten, dass er Computercode ausführt und Benutzungsdaten produziert. Betriebssysteme sind im Allgemeinen wohl bekannt und werden nicht in größerem Detail beschrieben werden. Das Betriebssystem kann z. B. OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein Betriebssystem mit einer speziellen Aufgabe sein, wie es z. B. für Haushaltscomputergeräte mit beschränktem Zweck verwendet werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks958 befinden, der operativ mit dem Prozessor956 verbunden ist. Speicherblock958 kann einen Platz zum Speichern von Computercode und Daten liefern, die durch das System950 verwendet werden. Zum Beispiel kann der Speicherplatz958 Nur-Lese Speicher (Read-Only Memory, ROM) umfassen, Lese-und-Schreibspeicher (Random-Access Memory, RAM), Festplattenlaufwerk und/oder ähnliches. Die Informationen können sich auf einem entfernbaren Speichermedium befinden oder auf das System950 geladen oder installiert werden, wenn benötigt. Entfernbare Speichermedien umfassen z. B. CD-ROM, PC-CARD, Speicherkarte, Floppy Disk, Magnetband und eine Netzwerkkomponente. - Das System
950 kann auch eine Anzeigevorrichtung968 umfassen, die operativ mit dem Prozessor956 verbunden ist. Die Anzeigevorrichtung968 kann eine Flüssigkristallanzeige (liquid crystal display, LCD) (z. B. aktive Matrix, passive Matrix und ähnliches sein). Alternativ kann die Anzeigevorrichtung968 ein Monitor sein, wie etwa eine Monochromanzeige, Farbgraphikadapter (color graphics adapter, CGA) Anzeige, verbesserte Graphikadapter (enhanced graphics adapter, EGA) Anzeige, variable Graphikfeldanzeige (variable-graphics-array, VGA), Super VGA Anzeige, Bildröhre (cathode ray tube, CRT) und ähnliches. Die Anzeigevorrichtung kann auch einer Plasmaanzeige oder einer Anzeige entsprechen, die mit elektronischen Tinten implementiert wird. - Die Anzeigevorrichtung
968 kann konfiguriert sein, eine graphische Benutzerschnittstelle (graphical user interface, GUI)969 anzuzeigen, die eine einfache Benutzerschnittstelle zwischen dem Benutzer des Systems und dem Betriebssystem oder darauf laufende Anwendung zur Verfügung stellt. Im Allgemeinen repräsentiert die GUI969 Programme, Dateien und Betriebsoptionen mit graphischen Bildern. Die graphischen Bilder können Fenster, Felder, Dialogfelder, Menüs, Icons, Schalter, Cursor, Bildlaufleisten usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein oder sie können dynamisch erzeugt werden, um bestimmten Aktionen zu dienen, die durch einen Benutzer vorgenommen werden. Während der Operation kann der Benutzer verschiedene graphische Bilder auswählen und aktivieren, um Funktionen und Aufgaben einzuleiten, die damit assoziiert sind. Zum Beispiel kann ein Benutzer eine Schaltfläche selektieren, die ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Icon, das ein bestimmtes Programm startet. Die GUI969 kann darüber hinaus oder alternativ Informationen, etwa nicht-interaktiven Text und Graphiken für den Benutzer auf der Anzeigevorrichtung968 anzeigen. - Das System
950 kann auch ein oder mehrere Eingabevorrichtungen970 umfassen, die operativ mit dem Prozessor956 verbunden sind. Die Eingabevorrichtungen970 können konfiguriert sein, um Daten von der Außenwelt in das System950 zu übertragen. Die Eingabevorrichtungen970 können in das System950 integriert sein oder sie können getrennte Komponenten (z. B. Peripherievorrichtungen) sein. In manchen Fällen können die Eingabevorrichtungen970 mit dem System950 durch Drahtverbindungen (Kabel/Ports) verbunden sein. In anderen Fällen können die Eingabevorrichtungen970 mit dem System950 durch drahtlose Verbindungen verbunden sein. Die Datenverbindung kann z. B. PS/2, USB, IR, RF, Bluetooth oder ähnlichem entsprechen. - Die Eingabevorrichtung(en)
970 kann/können z. B. verwendet werden, um Nachverfolgung durchzuführen und Anwahlen im Bezug auf die GUI969 auf der Anzeige968 zu machen. Die Eingabevorrichtung970 kann auch verwendet werden, um Befehle in das System950 abzugeben. - In einer Ausführungsform können die Eingabevorrichtungen
970 eine berührungsempfindliche Vorrichtung umfassen, die konfiguriert ist, um Eingabe von einer Berührung des Benutzers zu empfangen und diese Informationen an den Prozessor56 zu senden. Die berührungsempfindliche Vorrichtung kann z. B. einem Berührungsfeld, einem Berührungsbildschirm und/oder einem berührungsempfindlichen Gehäuse entsprechen. - In vielen Fällen kann die berührungsempfindliche Vorrichtung Berührungen (oder Beinahe-Berührungen) erkennen sowie die Position und die Größenordnung der Berührungen auf der berührungsempfindlichen Oberfläche. Die Berührungsabtastungsmittel können die Berührungen an den Prozessor
956 berichten und der Prozessor956 kann die Berührungen in Übereinstimmung mit seiner Programmierung interpretieren. Zum Beispiel kann der Prozessor956 eine Aufgabe in Übereinstimmung mit einer bestimmten Berührung initiieren. Ein dedizierter Prozessor kann verwendet werden, um die Berührungen lokal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. Die berührungsempfindliche Vorrichtung kann auf Abtasttechnologien beruhen – einschließlich, aber nicht beschränkt auf – kapazitives Abtasten, Widerstandsabtasten, Oberflächen akustisches Wellenabtasten, Druckabtasten, optisches Abtasten und/oder ähnliches. - Weiterhin können die berührungsempfindlichen Mittel auf Einzelpunktabtastung oder Mehrpunktabtastung beruhen. Einzelpunktabtastung ist nur in der Lage, eine einzige Berührung zu unterscheiden, während Mehrpunktabtastung in der Lage ist, mehrere Berührungen zu unterscheiden, die zur gleichen Zeit auftreten. Alternativ oder zusätzlich können Näheabtastungsvorrichtungen verwendet werden. Näheabtastungsvorrichtungen sind in der Lage, Objekte im Raum anstelle auf einer Berührungsoberfläche abzutasten.
- In einer Ausführungsform können die Eingabevorrichtungen
970 eine Mehrpunkteingabevorrichtung umfassen. Mehrpunkteingabevorrichtungen haben Vorteile gegenüber herkömmlichen Einzelpunktvorrichtungen dahingehend, dass sie mehr als ein Objekt (Finger) gleichzeitig unterscheiden können. Als ein Beispiel wird eine Mehrpunktvorrichtung, die hier verwendet wird, detaillierter in den U.S. Patentanmeldungen Nr. 10/840,862 und 11/015,434 beschrieben, die beide hier per Verweis mit eingebunden werden. - In Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung kann das System
950 so entworfen werden, dass es Gesten985 erkennt, die auf eine oder mehrere Eingabevorrichtungen970 (insbesondere Berührungsvorrichtungen) angewendet werden und Aspekte des Systems950 auf der Grundlage der Gesten985 steuert. Wie vorher bemerkt kann eine Geste als eine stilisierte Interaktion mit einer Eingabevorrichtung definiert werden, die auf eine oder mehrere bestimmte Computeroperationen abgebildet wird. Die Gesten985 können durch verschiedene Hand- und insbesondere Fingerbewegungen gemacht werden. Alternativ oder zusätzlich können die Gesten mit einem Stift gemacht werden. In all diesen Fällen kann mindestens eine der Eingabevorrichtungen970 wie etwa eine Berührungsvorrichtung, die Gesten985 empfangen und der Prozessor956 kann Instruktionen ausführen und Operationen ausführen, die mit den Gesten985 assoziiert sind. Darüber hinaus kann der Speicherblock958 ein Gestenbetriebsprogramm988 enthalten, das Teil eines Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm988 kann einen Satz an Anweisungen enthalten, die das Auftreten von Gesten985 erkennen und einen oder mehrere Software agenten über die Gesten985 informieren und/oder welche Aktion(en) in Antwort auf die Gesten985 zu unternehmen sind. - Wenn ein Benutzer eine oder mehrere Gesten durchführt, kann das Eingabegerät
970 Gesteninformationen an den Prozessor956 weitergeben. Unter Verwendung von Anweisungen vom Speicher958 und insbesondere des Gestenbetriebsprogramms988 kann der Prozessor956 die Gesten985 interpretieren und verschiedene Komponenten des Systems950 , wie etwa den Speicher958 , eine Anzeige968 auf der Grundlage der Gesten985 steuern. Die Gesten985 können als Befehle zum Durchführen von Aktionen in Anwendungen, die im Speicher958 gespeichert sind, identifiziert werden, die GUI Objekte modifizieren, die auf der Anzeige968 angezeigt werden, Daten modifizieren, die im Speicher958 gespeichert sind und/oder Aktionen in E/A Geräten durchführen. Zum Beispiel kämmen die Befehle mit Zoomen, Schwenken, Scrollen, Blättern, Rotieren, Größenverändern und ähnlichem assoziiert sein. Als weitere Beispiele können die Befehle auch mit dem Starten eines bestimmten Programms, Öffnen einer Datei oder eines bestimmten Dokuments, Betrachten eines Menüs, Vornehmens einer Auswahl, Ausführen von Anweisungen, Einloggen in ein Computersystem, autorisierten Individuen Zugang zu beschränkten Gebieten des Computersystems erlauben, Laden eines Benutzerprofils, das mit einer durch den Benutzer bevorzugten Anordnung auf dem Computerschreibtisch assoziiert ist und/oder ähnlichem assoziiert sein. - In einer Ausführungsform kann die Anzahl an Fingern in Kontakt mit der Eingabevorrichtung einen Eingabemodus anzeigen. Zum Beispiel kann eine einzelne Berührung, wie z. B. durch einen einzelnen Finger den Wunsch anzeigen, Nachverfolgung durchzuführen, d. h. Zeiger- oder Cursorbewegungen oder Auswahlen, wohingegen mehrere Berührungen, wie z. B. durch eine Gruppe an Finger, den Wunsch anzeigen kann, andere Gesten durchzuführen. Die Anzahl an Finger zum Implementieren von Gesten kann stark abgewandelt werden. Zum Beispiel können zwei Finger einen ersten Eingabemodus anzeigen, drei Finger können einen dritten Eingabemodus anzeigen usw. Alternativ kann jede Anzahl von Fingern, d. h. mehr als einer für denselben Eingabemodus verwendet werden, der eine oder mehrere Gestensteuerungen umfassen kann. Die Ausrichtung der Finger kann ähnlich verwendet werden, um den gewünschten Modus zu bezeichnen. Das Profil der Finger kann detektiert werden, um verschiedene modale Operationen auf der Grundlage dessen zu ermöglichen, ob der Benutzer z. B. seinen Daumen oder Zeigefinger verwendet hat.
- In einer bestimmten Ausführungsform kann ein einzelner Finger Nachverfolgung (oder Auswahl) einleiten und zwei oder mehr Finger in großer Nähe zueinander können scrollen oder schwenken einleiten. Zwei Finger können einfaches hin und her schalten zwischen einem und zwei Fingern liefern, d. h. der Benutzer kann zwischen Modi sehr einfach wechseln, indem er einfach einen zusätzlichen Finger anhebt oder platziert. Das hat den Vorteil, intuitiver zu sein, als andere Formen des Modus hin und her Schaltens. Während Nachverfolgung kann Cursorbewegung durch den Benutzer gesteuert werden, der einen einzelnen Finger auf der Berührungssensitiven Oberfläche einer berührungssensitiven Vorrichtung bewegt. Die Sensoranordnung der berührungsempfindlichen Vorrichtung kann die Fingerbewegung interpretieren und Signale zum Erzeugen entsprechender Bewegung des Cursors auf der Anzeige erzeugen. Während Scrollen kann Bildschirmbewegung durch den Benutzer gesteuert werden, der duale Finger auf der berührungsempfindlichen Oberfläche oder der berührungsempfindlichen Vorrichtung bewegt. Wenn die kombinierten Finger in die vertikale Richtung bewegt werden, kann die Bewegung als ein vertikales Scrollereignis interpretiert werden und wenn die kombinierten Finger in die horizontale Richtung bewegt werden, kann die Bewegung als ein horizontales Scrollereignis interpretiert werden. Das Gleiche kann für Schwenken gesagt werden, obwohl Schwenken in alle Richtungen anstelle nur der horizontalen und vertikalen Richtung eintreten kann.
- Die Ausführungsformen, die hier beschrieben werden, können durch Hardware, Software oder einer Kombination von Hardware und Software implementiert werden. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium ausgeführt sein. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, die Daten speichern kann, die danach durch ein Com putersystem gelesen werden können. Beispiele für das computerlesbare Medium umfassen Nur-Lese Speicher, Lese-und-Schreib Speicher, CD-ROMS, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkverbundene Computersysteme verteilt werden, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.
- Obwohl z. B. die Erfindung primär auf Berührungsvorrichtungen gerichtet ist, sollte bemerkt werden, dass die Erfindung auch mit Näheabtastungsvorrichtungen implementiert werden kann. Darüber hinaus können Verfahren implementiert werden, um automatisch Gestenpräferenzen zwischen verschiedenen Vorrichtungen zu synchronisieren. Wenn z. B. eine Palm Vorrichtung mit einem Host Computer verbunden wird. Es sollte auch bemerkt werden, dass es viele alternative Wege der Implementierung der Verfahren und Geräte gibt. Obwohl z. B. die Erfindung primär auf ein System gerichtet ist, das mit Mehrpunkt-Abtastvorrichtungen assoziiert ist, sollte bemerkt werden, dass es auch auf Einzelpunktabtastvorrichtungen gerichtet werden kann.
Claims (20)
- Elektronisches System umfassend: eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt; ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.
- Elektronisches System wie in Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine berührungsempfindliche Vorrichtung ist.
- Elektronisches System wie in Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine Näheabtastvorrichtung ist.
- Elektronisches System wie in Anspruch 1, wobei das Gestenmodul durch Hardware, Software oder eine Kombination aus Hardware und Software implementiert ist.
- Elektronisches System wie in Anspruch 1, wobei das elektronische System mit einem Computersystem assoziiert ist, einschließlich Desktops, Laptops, Tabletts und handgehaltene Computer.
- Elektronisches System wie in Anspruch 1, wobei das elektronische System mit handgehaltenen elektronischen Benutzergeräten einschließlich Mobiltelefonen, PDAs oder dedizierten Medienspielern assoziiert ist.
- Elektronisches System wie in Anspruch 1, wobei der Gestensatz auch durch einen oder mehrere Faktoren bestimmt wird, einschließlich Position der Eingabeanordnung innerhalb des Abtastgebiets, einer offenen Anwendung, eines Zustands der offenen Anwendung, Eingabefunktionalität oder zusätzlichen Eingabecharakteristiken.
- Elektronisches System wie in Anspruch 1, wobei die Eingabeaktionen Zustandsbefehle sind.
- Elektronisches System wie in Anspruch 1, wobei die Eingabeaktionen manipulative Befehle sind.
- Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse durch die Eingabeanordnung durchgeführt werden.
- Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse durch eine Untermenge der Eingabeanordnung durchgeführt werden.
- Elektronisches System wie in Anspruch 1, wobei das Bestimmen des Gestensatzes erkennen einer bestimmten Eingabeanordnung umfasst und wobei Überwachen der bestimmten Eingabeanordnung Erkennen von Gestenereignissen umfasst, die mit dem Gestensatz assoziiert sind.
- Elektronisches System wie in Anspruch 12, wobei Erkennen der Gestenereignisse Analysieren von Charakteristiken einer jeden Eingabe der Eingabeanordnung umfasst, Identifizieren eines bestimmten Musters, das mit der Eingabeanordnung assoziiert ist und Bezug nehmen auf den Gestensatz, um zu sehen, ob das bestimmte Muster mit einem Gestenereignis übereinstimmt, das mit dem Gestensatz assoziiert ist.
- Elektronisches System wie in Anspruch 1, wobei die Gestenereignisse mit Berührungen assoziiert sind, die aus Bewegungen, Tippen, Druck und Verweilen ausgewählt werden können.
- Elektronisches System wie in Anspruch 14, wobei Bewegungen aus Gleiten, Wischen, Schnalzen und Rotation ausgewählt werden.
- Elektronisches System wie in Anspruch 14, wobei Bewegungen Zusammenziehen oder Ausdehnen zwischen zwei oder mehr Eingaben sind.
- Elektronisches System wie in Anspruch 14, wobei Tippen aus einem halben Tippen, ganzen Tippen, mehreren Tippen, schnellen Tippen oder langsamen Tippen ausgewählt werden.
- Elektronisches System wie in Anspruch 14, wobei Druck mit hartem und leichtem Drücken assoziiert wird.
- Elektronisches System wie in Anspruch 14, wobei Verweilen mit einer langen oder kurzen stationären Pause assoziiert ist.
- Elektronisches System wie in Anspruch 14, wobei der Gestensatz aus einer Matrix aus verschiedenen Gestenereignissen und verschiedenen Befehlen besteht.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/700,636 | 2007-01-30 | ||
US11/700,636 US9292111B2 (en) | 1998-01-26 | 2007-01-31 | Gesturing with a multipoint sensing device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202008001338U1 true DE202008001338U1 (de) | 2008-07-10 |
Family
ID=39247182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202008001338U Expired - Lifetime DE202008001338U1 (de) | 2007-01-30 | 2008-01-30 | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung |
Country Status (9)
Country | Link |
---|---|
US (1) | US9292111B2 (de) |
EP (1) | EP2115560A2 (de) |
JP (1) | JP2010517197A (de) |
CN (1) | CN101636711A (de) |
AU (2) | AU2008210864A1 (de) |
DE (1) | DE202008001338U1 (de) |
HK (1) | HK1109023A2 (de) |
TW (2) | TWM350737U (de) |
WO (1) | WO2008094791A2 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008051051A1 (de) * | 2008-09-03 | 2010-03-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von Information in einem Fahrzeug |
WO2013092288A1 (de) | 2011-12-22 | 2013-06-27 | Bauhaus-Universität Weimar | Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige |
DE102014111749A1 (de) * | 2014-08-18 | 2016-02-18 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zum Steuern eines technischen Gerätes |
Families Citing this family (874)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US7834855B2 (en) | 2004-08-25 | 2010-11-16 | Apple Inc. | Wide touchpad on a portable computer |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US20060033724A1 (en) * | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US7760187B2 (en) * | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
US6610917B2 (en) * | 1998-05-15 | 2003-08-26 | Lester F. Ludwig | Activity indication, external source, and processing loop provisions for driven vibrating-element environments |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7093201B2 (en) * | 2001-09-06 | 2006-08-15 | Danger, Inc. | Loop menu navigation apparatus and method |
US8095879B2 (en) * | 2002-12-10 | 2012-01-10 | Neonode Inc. | User interface for mobile handheld computer unit |
US7333092B2 (en) | 2002-02-25 | 2008-02-19 | Apple Computer, Inc. | Touch pad for handheld device |
AU2003213780B2 (en) * | 2002-03-08 | 2008-03-13 | Quantum Interface, Llc | Electric device control apparatus |
US7958455B2 (en) * | 2002-08-01 | 2011-06-07 | Apple Inc. | Mode activated scrolling |
US8659565B2 (en) | 2010-10-01 | 2014-02-25 | Z124 | Smartpad orientation |
US9552141B2 (en) * | 2004-06-21 | 2017-01-24 | Apple Inc. | Methods and apparatuses for operating a data processing system |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7561146B1 (en) | 2004-08-25 | 2009-07-14 | Apple Inc. | Method and apparatus to reject accidental contact on a touchpad |
US7761814B2 (en) * | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US20070152983A1 (en) | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8139028B2 (en) * | 2006-02-01 | 2012-03-20 | Synaptics Incorporated | Proximity sensor and method for indicating extended interface results |
US8370383B2 (en) | 2006-02-08 | 2013-02-05 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US8296684B2 (en) | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
US8683362B2 (en) * | 2008-05-23 | 2014-03-25 | Qualcomm Incorporated | Card metaphor for activities in a computing device |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8564543B2 (en) * | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
US7581186B2 (en) * | 2006-09-11 | 2009-08-25 | Apple Inc. | Media manager with integrated browsers |
US8736557B2 (en) | 2006-09-11 | 2014-05-27 | Apple Inc. | Electronic device with image based browsers |
US8274479B2 (en) | 2006-10-11 | 2012-09-25 | Apple Inc. | Gimballed scroll wheel |
US8570278B2 (en) | 2006-10-26 | 2013-10-29 | Apple Inc. | Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker |
US7856605B2 (en) * | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US8607167B2 (en) * | 2007-01-07 | 2013-12-10 | Apple Inc. | Portable multifunction device, method, and graphical user interface for providing maps and directions |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US9001047B2 (en) | 2007-01-07 | 2015-04-07 | Apple Inc. | Modal change based on orientation of a portable multifunction device |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US8612857B2 (en) * | 2007-01-08 | 2013-12-17 | Apple Inc. | Monitor configuration for media device |
US8607144B2 (en) * | 2007-01-08 | 2013-12-10 | Apple Inc. | Monitor configuration for media device |
KR100894146B1 (ko) * | 2007-02-03 | 2009-04-22 | 엘지전자 주식회사 | 이동통신 단말기 및 그 동작 제어방법 |
KR101426718B1 (ko) * | 2007-02-15 | 2014-08-05 | 삼성전자주식회사 | 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법 |
US20080229255A1 (en) * | 2007-03-15 | 2008-09-18 | Nokia Corporation | Apparatus, method and system for gesture detection |
KR101380004B1 (ko) * | 2007-03-23 | 2014-04-02 | 엘지전자 주식회사 | 전자기기 및 이를 이용한 어플리케이션의 실행방법 |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
WO2008134452A2 (en) * | 2007-04-24 | 2008-11-06 | Oblong Industries, Inc. | Proteins, pools, and slawx in processing environments |
US8185839B2 (en) * | 2007-06-09 | 2012-05-22 | Apple Inc. | Browsing or searching user interfaces and other aspects |
US8201096B2 (en) * | 2007-06-09 | 2012-06-12 | Apple Inc. | Browsing or searching user interfaces and other aspects |
US8350815B2 (en) * | 2007-06-20 | 2013-01-08 | Sony Mobile Communications | Portable communication device including touch input with scrolling function |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
US8171432B2 (en) * | 2008-01-06 | 2012-05-01 | Apple Inc. | Touch screen device, method, and graphical user interface for displaying and selecting application options |
US8302033B2 (en) | 2007-06-22 | 2012-10-30 | Apple Inc. | Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information |
US8127254B2 (en) * | 2007-06-29 | 2012-02-28 | Nokia Corporation | Unlocking a touch screen device |
KR20090029138A (ko) * | 2007-09-17 | 2009-03-20 | 삼성전자주식회사 | 동작에 의한 사용자 명령 입력 방법 및 이를 적용한멀티미디어 기기 |
US9965067B2 (en) | 2007-09-19 | 2018-05-08 | T1V, Inc. | Multimedia, multiuser system and associated methods |
US9953392B2 (en) | 2007-09-19 | 2018-04-24 | T1V, Inc. | Multimedia system and associated methods |
US20130342489A1 (en) * | 2008-08-13 | 2013-12-26 | Michael R. Feldman | Multimedia, multiuser system and associated methods |
US7486386B1 (en) | 2007-09-21 | 2009-02-03 | Silison Laboratories Inc. | Optical reflectance proximity sensor |
JP2009093291A (ja) * | 2007-10-04 | 2009-04-30 | Toshiba Corp | ジェスチャー判定装置及び方法 |
US20090100383A1 (en) * | 2007-10-16 | 2009-04-16 | Microsoft Corporation | Predictive gesturing in graphical user interface |
US9274698B2 (en) | 2007-10-26 | 2016-03-01 | Blackberry Limited | Electronic device and method of controlling same |
US20090125848A1 (en) * | 2007-11-14 | 2009-05-14 | Susann Marie Keohane | Touch surface-sensitive edit system |
US9171454B2 (en) | 2007-11-14 | 2015-10-27 | Microsoft Technology Licensing, Llc | Magic wand |
US8839123B2 (en) * | 2007-11-19 | 2014-09-16 | Red Hat, Inc. | Generating a visual user interface |
KR101413473B1 (ko) * | 2007-11-20 | 2014-07-01 | 엘지전자 주식회사 | 이동 단말기 및 그의 키 입력 방법 |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
KR101456570B1 (ko) * | 2007-12-21 | 2014-10-31 | 엘지전자 주식회사 | 디지털 이퀄라이저를 구비한 이동 단말기 및 그 제어방법 |
US8610671B2 (en) * | 2007-12-27 | 2013-12-17 | Apple Inc. | Insertion marker placement on touch sensitive display |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8230360B2 (en) * | 2008-01-04 | 2012-07-24 | Apple Inc. | User interface for selection from media collection |
US20090174679A1 (en) * | 2008-01-04 | 2009-07-09 | Wayne Carl Westerman | Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface |
US8327272B2 (en) | 2008-01-06 | 2012-12-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US8232973B2 (en) | 2008-01-09 | 2012-07-31 | Apple Inc. | Method, device, and graphical user interface providing word recommendations for text input |
KR20090077480A (ko) * | 2008-01-11 | 2009-07-15 | 삼성전자주식회사 | 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기 |
US8555193B2 (en) * | 2008-01-17 | 2013-10-08 | Google Inc. | System for intelligent automated layout and management of interactive windows |
US20090187842A1 (en) * | 2008-01-22 | 2009-07-23 | 3Dlabs Inc., Ltd. | Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens |
KR101224588B1 (ko) * | 2008-01-24 | 2013-01-22 | 삼성전자주식회사 | 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기 |
KR20090085470A (ko) * | 2008-02-04 | 2009-08-07 | 삼성전자주식회사 | 아이템 또는 바탕화면에서 복수의 터치방식을 감지하는터치 ui 제공방법 및 이를 적용한 멀티미디어 기기 |
US8446373B2 (en) * | 2008-02-08 | 2013-05-21 | Synaptics Incorporated | Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region |
US8555207B2 (en) | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US8717305B2 (en) * | 2008-03-04 | 2014-05-06 | Apple Inc. | Touch event model for web pages |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US8650507B2 (en) * | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8416196B2 (en) | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US8645827B2 (en) * | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US9513704B2 (en) * | 2008-03-12 | 2016-12-06 | Immersion Corporation | Haptically enabled user interface |
US20090243998A1 (en) * | 2008-03-28 | 2009-10-01 | Nokia Corporation | Apparatus, method and computer program product for providing an input gesture indicator |
US20110012848A1 (en) * | 2008-04-03 | 2011-01-20 | Dong Li | Methods and apparatus for operating a multi-object touch handheld device with touch sensitive display |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
DE102008017716A1 (de) * | 2008-04-07 | 2009-10-08 | Volkswagen Ag | Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug sowie Verfahren zum Betreiben einer solchen |
US9256342B2 (en) | 2008-04-10 | 2016-02-09 | Perceptive Pixel, Inc. | Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques |
US9740293B2 (en) | 2009-04-02 | 2017-08-22 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US10642364B2 (en) * | 2009-04-02 | 2020-05-05 | Oblong Industries, Inc. | Processing tracking and recognition data in gestural recognition systems |
US20090295746A1 (en) * | 2008-04-29 | 2009-12-03 | Davidson Philip L | Event registration and dispatch system and method for multi-point controls |
US20100177053A2 (en) * | 2008-05-09 | 2010-07-15 | Taizo Yasutake | Method and apparatus for control of multiple degrees of freedom of a display |
JP2009276829A (ja) * | 2008-05-12 | 2009-11-26 | Nintendo Co Ltd | 情報処理プログラムおよび情報処理装置 |
US8952894B2 (en) * | 2008-05-12 | 2015-02-10 | Microsoft Technology Licensing, Llc | Computer vision-based multi-touch sensing using infrared lasers |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8174503B2 (en) * | 2008-05-17 | 2012-05-08 | David H. Cain | Touch-based authentication of a mobile device through user generated pattern creation |
KR100914438B1 (ko) * | 2008-05-20 | 2009-08-28 | 엘지전자 주식회사 | 터치 디바이스를 구비한 전자 기기와 그 기능 실행 방법 |
JP5164675B2 (ja) * | 2008-06-04 | 2013-03-21 | キヤノン株式会社 | ユーザインターフェースの制御方法及び情報処理装置及びプログラム |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
US20090327974A1 (en) * | 2008-06-26 | 2009-12-31 | Microsoft Corporation | User interface for gestural control |
US8504946B2 (en) * | 2008-06-27 | 2013-08-06 | Apple Inc. | Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document |
US8446372B2 (en) * | 2008-07-09 | 2013-05-21 | Lenovo (Singapore) Pte. Ltd. | Apparatus, system, and method for automated touchpad adjustments |
US8159455B2 (en) * | 2008-07-18 | 2012-04-17 | Apple Inc. | Methods and apparatus for processing combinations of kinematical inputs |
US8390577B2 (en) * | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
JP4957750B2 (ja) * | 2008-07-31 | 2012-06-20 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8847739B2 (en) * | 2008-08-04 | 2014-09-30 | Microsoft Corporation | Fusing RFID and vision for surface object tracking |
WO2010016065A1 (en) * | 2008-08-08 | 2010-02-11 | Moonsun Io Ltd. | Method and device of stroke based user input |
US8604364B2 (en) * | 2008-08-15 | 2013-12-10 | Lester F. Ludwig | Sensors, algorithms and applications for a high dimensional touchpad |
EP2342642A1 (de) * | 2008-09-04 | 2011-07-13 | Extreme Reality Ltd. | Verfahren, system und software zur bereitstellung einer auf bildsensoren basierenden mensch-maschine-schnittstelle |
JPWO2010029619A1 (ja) * | 2008-09-10 | 2012-02-02 | 富士通東芝モバイルコミュニケーションズ株式会社 | 携帯端末 |
US20100070931A1 (en) * | 2008-09-15 | 2010-03-18 | Sony Ericsson Mobile Communications Ab | Method and apparatus for selecting an object |
US8769427B2 (en) | 2008-09-19 | 2014-07-01 | Google Inc. | Quick gesture input |
FR2936326B1 (fr) * | 2008-09-22 | 2011-04-29 | Stantum | Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts |
US20100073303A1 (en) * | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
MX2011003069A (es) * | 2008-09-24 | 2011-04-19 | Koninkl Philips Electronics Nv | Interfaz de usuario para dispositivo sensible de toque de multiples puntos. |
US9223430B2 (en) * | 2008-09-26 | 2015-12-29 | Hewlett-Packard Development Company | Distributing touch data |
US20100083108A1 (en) * | 2008-09-26 | 2010-04-01 | Research In Motion Limited | Touch-screen device having soft escape key |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
US8683390B2 (en) * | 2008-10-01 | 2014-03-25 | Microsoft Corporation | Manipulation of objects on multi-touch user interface |
US20100087169A1 (en) * | 2008-10-02 | 2010-04-08 | Microsoft Corporation | Threading together messages with multiple common participants |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR101586627B1 (ko) * | 2008-10-06 | 2016-01-19 | 삼성전자주식회사 | 멀티 터치를 이용한 리스트 관리 방법 및 장치 |
KR101503835B1 (ko) * | 2008-10-13 | 2015-03-18 | 삼성전자주식회사 | 멀티터치를 이용한 오브젝트 관리 방법 및 장치 |
US8446389B2 (en) * | 2008-10-15 | 2013-05-21 | Lenovo (Singapore) Pte. Ltd | Techniques for creating a virtual touchscreen |
US8174504B2 (en) * | 2008-10-21 | 2012-05-08 | Synaptics Incorporated | Input device and method for adjusting a parameter of an electronic system |
US20100105441A1 (en) * | 2008-10-23 | 2010-04-29 | Chad Aron Voss | Display Size of Representations of Content |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US20100105424A1 (en) * | 2008-10-23 | 2010-04-29 | Smuga Michael A | Mobile Communications Device User Interface |
US20100107100A1 (en) | 2008-10-23 | 2010-04-29 | Schneekloth Jason S | Mobile Device Style Abstraction |
US8385952B2 (en) * | 2008-10-23 | 2013-02-26 | Microsoft Corporation | Mobile communications device user interface |
US8525776B2 (en) * | 2008-10-27 | 2013-09-03 | Lenovo (Singapore) Pte. Ltd | Techniques for controlling operation of a device with a virtual touchscreen |
JP5684136B2 (ja) * | 2008-10-28 | 2015-03-11 | サーク・コーポレーション | 多重接触エリア回転ジェスチャ認識方法 |
KR101569176B1 (ko) * | 2008-10-30 | 2015-11-20 | 삼성전자주식회사 | 오브젝트 실행 방법 및 장치 |
WO2010050537A1 (ja) * | 2008-10-30 | 2010-05-06 | 日本電気株式会社 | 携帯端末装置、データ操作処理方法及びデータ操作処理プログラム |
KR101019335B1 (ko) * | 2008-11-11 | 2011-03-07 | 주식회사 팬택 | 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템 |
US8502785B2 (en) * | 2008-11-12 | 2013-08-06 | Apple Inc. | Generating gestures tailored to a hand resting on a surface |
KR101027566B1 (ko) * | 2008-11-17 | 2011-04-06 | (주)메디슨 | 초음파 진단기 및 초음파 진단기에서의 명령 신호 생성 방법 |
CN102227704B (zh) * | 2008-11-28 | 2014-09-03 | 创新科技有限公司 | 用于控制声音再现装置的装置和方法 |
SE533704C2 (sv) | 2008-12-05 | 2010-12-07 | Flatfrog Lab Ab | Pekkänslig apparat och förfarande för drivning av densamma |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
US8660300B2 (en) * | 2008-12-12 | 2014-02-25 | Silicon Laboratories Inc. | Apparatus and method for optical gesture recognition |
DE112008004156B4 (de) * | 2008-12-15 | 2021-06-24 | Hewlett-Packard Development Company, L.P. | System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür |
TWI474226B (zh) * | 2008-12-17 | 2015-02-21 | Htc Corp | 可攜式通訊裝置及其調整複數觸控訊號之方法 |
JP2010157039A (ja) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | 電子機器、入力制御方法 |
JP2010157038A (ja) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | 電子機器、入力制御方法 |
CN102272699B (zh) | 2008-12-29 | 2018-06-12 | 惠普开发有限公司 | 手势检测分区 |
KR101021857B1 (ko) * | 2008-12-30 | 2011-03-17 | 삼성전자주식회사 | 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법 |
US8957865B2 (en) * | 2009-01-05 | 2015-02-17 | Apple Inc. | Device, method, and graphical user interface for manipulating a user interface object |
US10019081B2 (en) * | 2009-01-15 | 2018-07-10 | International Business Machines Corporation | Functionality switching in pointer input devices |
US7870496B1 (en) | 2009-01-29 | 2011-01-11 | Jahanzeb Ahmed Sherwani | System using touchscreen user interface of a mobile device to remotely control a host computer |
US20140160030A1 (en) * | 2009-02-09 | 2014-06-12 | Cypress Semiconductor Corporation | Sensor system and method for mapping and creating gestures |
TWM361674U (en) * | 2009-02-19 | 2009-07-21 | Sentelic Corp | Touch control module |
JP4775459B2 (ja) * | 2009-02-27 | 2011-09-21 | 株式会社デンソー | 電子機器及び情報処理システム |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8572513B2 (en) | 2009-03-16 | 2013-10-29 | Apple Inc. | Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
US8589374B2 (en) | 2009-03-16 | 2013-11-19 | Apple Inc. | Multifunction device with integrated search and application selection |
US9846533B2 (en) | 2009-03-16 | 2017-12-19 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US9311112B2 (en) * | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US8355698B2 (en) | 2009-03-30 | 2013-01-15 | Microsoft Corporation | Unlock screen |
US8238876B2 (en) | 2009-03-30 | 2012-08-07 | Microsoft Corporation | Notifications |
TWI395124B (zh) * | 2009-04-02 | 2013-05-01 | Mstar Semiconductor Inc | 數位化裝置、數位轉換方法及電容式觸控面板裝置 |
US10824238B2 (en) | 2009-04-02 | 2020-11-03 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
KR101593598B1 (ko) * | 2009-04-03 | 2016-02-12 | 삼성전자주식회사 | 휴대단말에서 제스처를 이용한 기능 실행 방법 |
US9258402B2 (en) * | 2009-04-14 | 2016-02-09 | Qualcomm Incorporated | System and method for controlling mobile devices |
KR101537706B1 (ko) * | 2009-04-16 | 2015-07-20 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR101588730B1 (ko) * | 2009-04-21 | 2016-01-26 | 엘지전자 주식회사 | 이동 단말기 및 이것의 인스턴트 메시징 서비스를 이용한 대화 방법 |
TWI497357B (zh) * | 2009-04-23 | 2015-08-21 | Waltop Int Corp | 多點觸控板控制方法 |
US8633904B2 (en) | 2009-04-24 | 2014-01-21 | Cypress Semiconductor Corporation | Touch identification for multi-touch technology |
TWI469019B (zh) * | 2009-04-30 | 2015-01-11 | Chimei Innolux Corp | 電容式觸控螢幕省電裝置及其方法與電容式觸控螢幕 |
TW201040823A (en) * | 2009-05-11 | 2010-11-16 | Au Optronics Corp | Multi-touch method for resistive touch panel |
US8355007B2 (en) * | 2009-05-11 | 2013-01-15 | Adobe Systems Incorporated | Methods for use with multi-touch displays for determining when a touch is processed as a mouse event |
WO2010131122A2 (en) * | 2009-05-13 | 2010-11-18 | France Telecom | User interface to provide enhanced control of an application program |
US20100295798A1 (en) | 2009-05-21 | 2010-11-25 | Sony Computer Entertainment America Inc. | Hand-held device with ancillary touch activated zoom |
US8269736B2 (en) * | 2009-05-22 | 2012-09-18 | Microsoft Corporation | Drop target gestures |
KR101597553B1 (ko) * | 2009-05-25 | 2016-02-25 | 엘지전자 주식회사 | 기능 실행 방법 및 그 장치 |
KR101564222B1 (ko) * | 2009-05-26 | 2015-11-06 | 삼성전자주식회사 | 휴대단말의 잠금 모드 해제 방법 및 장치 |
US8581856B2 (en) * | 2009-05-27 | 2013-11-12 | Microsoft Corporation | Touch sensitive display apparatus using sensor input |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US20110087974A1 (en) * | 2009-05-28 | 2011-04-14 | Kulas Charles J | User interface controls including capturing user mood in response to a user cue |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20100309140A1 (en) * | 2009-06-05 | 2010-12-09 | Microsoft Corporation | Controlling touch input modes |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US8681106B2 (en) | 2009-06-07 | 2014-03-25 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US20120327009A1 (en) * | 2009-06-07 | 2012-12-27 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US8464182B2 (en) * | 2009-06-07 | 2013-06-11 | Apple Inc. | Device, method, and graphical user interface for providing maps, directions, and location-based information |
US8717311B2 (en) * | 2009-06-19 | 2014-05-06 | Blackberry Limited | Portable electronic device including touch-sensitive display and method of determining when to turn off the touch sensitive display |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
JP2011014044A (ja) * | 2009-07-03 | 2011-01-20 | Sony Corp | 操作制御装置、操作制御方法およびコンピュータプログラム |
US9182854B2 (en) * | 2009-07-08 | 2015-11-10 | Microsoft Technology Licensing, Llc | System and method for multi-touch interactions with a touch sensitive screen |
US8610744B2 (en) | 2009-07-10 | 2013-12-17 | Adobe Systems Incorporated | Methods and apparatus for natural media painting using proximity-based tablet stylus gestures |
JP2011028366A (ja) | 2009-07-22 | 2011-02-10 | Sony Corp | 操作制御装置および操作制御方法 |
US8428368B2 (en) * | 2009-07-31 | 2013-04-23 | Echostar Technologies L.L.C. | Systems and methods for hand gesture control of an electronic device |
US9563350B2 (en) * | 2009-08-11 | 2017-02-07 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
KR100984817B1 (ko) * | 2009-08-19 | 2010-10-01 | 주식회사 컴퍼니원헌드레드 | 이동통신 단말기의 터치스크린을 이용한 사용자 인터페이스 방법 |
EP2472374B1 (de) * | 2009-08-24 | 2019-03-20 | Samsung Electronics Co., Ltd. | Verfahren zur bereitstellung einer benutzerschnittstelle |
JP5482023B2 (ja) * | 2009-08-27 | 2014-04-23 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2011059820A (ja) * | 2009-09-07 | 2011-03-24 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
US9176962B2 (en) | 2009-09-07 | 2015-11-03 | Apple Inc. | Digital media asset browsing with audio cues |
CN101655771B (zh) * | 2009-09-07 | 2011-07-20 | 上海合合信息科技发展有限公司 | 多触点字符输入方法及系统 |
US20110057886A1 (en) * | 2009-09-10 | 2011-03-10 | Oliver Ng | Dynamic sizing of identifier on a touch-sensitive display |
KR101629645B1 (ko) * | 2009-09-18 | 2016-06-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작방법 |
EP2480957B1 (de) * | 2009-09-22 | 2017-08-09 | Apple Inc. | Einrichtung, verfahren und grafische benutzeroberfläche zum manipulieren von benutzeroberflächenobjekten |
US9310907B2 (en) | 2009-09-25 | 2016-04-12 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
AU2010297695A1 (en) * | 2009-09-23 | 2012-05-03 | Dingnan Han | Method and interface for man-machine interaction |
US8799826B2 (en) * | 2009-09-25 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for moving a calendar entry in a calendar application |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
US8766928B2 (en) * | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US20110078626A1 (en) * | 2009-09-28 | 2011-03-31 | William Bachman | Contextual Presentation of Digital Media Asset Collections |
CN102033642B (zh) * | 2009-09-29 | 2012-10-10 | 联想(北京)有限公司 | 一种手势识别的方法及电子设备 |
TW201112074A (en) * | 2009-09-30 | 2011-04-01 | Higgstec Inc | Touch gesture detecting method of a touch panel |
TW201112075A (en) * | 2009-09-30 | 2011-04-01 | Higgstec Inc | Screen menu instruction generating method of a touch screen |
DE102009043719A1 (de) * | 2009-10-01 | 2011-04-07 | Deutsche Telekom Ag | Verfahren zur Befehlseingabe auf einer berührungssensitiven Oberfläche |
US8078359B2 (en) * | 2009-10-05 | 2011-12-13 | Tesla Motors, Inc. | User configurable vehicle user interface |
US9079498B2 (en) * | 2009-10-05 | 2015-07-14 | Tesla Motors, Inc. | Morphing vehicle user interface |
US8818624B2 (en) * | 2009-10-05 | 2014-08-26 | Tesla Motors, Inc. | Adaptive soft buttons for a vehicle user interface |
WO2011043422A1 (ja) * | 2009-10-09 | 2011-04-14 | 日本電気株式会社 | 携帯機器及びそのセキュリティロック制御方法,プログラム |
US8924893B2 (en) | 2009-10-14 | 2014-12-30 | At&T Mobility Ii Llc | Locking and unlocking of an electronic device using a sloped lock track |
US9971807B2 (en) | 2009-10-14 | 2018-05-15 | Oblong Industries, Inc. | Multi-process interactive systems and methods |
US9424444B2 (en) | 2009-10-14 | 2016-08-23 | At&T Mobility Ii Llc | Systems, apparatus, methods and computer-readable storage media for facilitating integrated messaging, contacts and social media for a selected entity |
US20110090155A1 (en) * | 2009-10-15 | 2011-04-21 | Qualcomm Incorporated | Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input |
WO2011045861A1 (ja) * | 2009-10-16 | 2011-04-21 | パイオニア株式会社 | 地図表示装置、地図表示方法及び地図表示プログラム |
KR20110044496A (ko) * | 2009-10-23 | 2011-04-29 | 삼성전자주식회사 | 휴대 단말기의 입력 신호 처리 장치 및 방법 |
US10101898B2 (en) * | 2009-10-23 | 2018-10-16 | Autodesk, Inc. | Multi-touch graphical user interface for interacting with menus on a handheld device |
TWI448960B (zh) * | 2009-11-04 | 2014-08-11 | Univ Ishou | Interactive navigation system |
TWI494791B (zh) * | 2009-11-06 | 2015-08-01 | Au Optronics Corp | 判斷觸控裝置之手勢之方法 |
GB0919516D0 (en) * | 2009-11-06 | 2009-12-23 | Imagination Tech Ltd | Touch sensitive display |
TWI493407B (zh) * | 2009-11-09 | 2015-07-21 | Elan Microelectronics Corp | Multi - function touchpad remote control and its control method |
US8390600B2 (en) * | 2009-11-13 | 2013-03-05 | Microsoft Corporation | Interactive display system with contact geometry interface |
US8436821B1 (en) * | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
US20110138284A1 (en) * | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
US20110148786A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | Method and apparatus for changing operating modes |
US9465532B2 (en) | 2009-12-18 | 2016-10-11 | Synaptics Incorporated | Method and apparatus for operating in pointing and enhanced gesturing modes |
JP4719296B1 (ja) * | 2009-12-25 | 2011-07-06 | 株式会社東芝 | 情報処理装置及び情報処理方法 |
US8786559B2 (en) * | 2010-01-06 | 2014-07-22 | Apple Inc. | Device, method, and graphical user interface for manipulating tables using multi-contact gestures |
US8862576B2 (en) | 2010-01-06 | 2014-10-14 | Apple Inc. | Device, method, and graphical user interface for mapping directions between search results |
US8736561B2 (en) * | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
US8621380B2 (en) | 2010-01-06 | 2013-12-31 | Apple Inc. | Apparatus and method for conditionally enabling or disabling soft buttons |
US8456297B2 (en) * | 2010-01-06 | 2013-06-04 | Apple Inc. | Device, method, and graphical user interface for tracking movement on a map |
US8698845B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface with interactive popup views |
US20110167350A1 (en) * | 2010-01-06 | 2011-07-07 | Apple Inc. | Assist Features For Content Display Device |
JP5750875B2 (ja) * | 2010-12-01 | 2015-07-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
JP2011150414A (ja) * | 2010-01-19 | 2011-08-04 | Sony Corp | 情報処理装置、操作入力決定方法及び操作入力決定プログラム |
JP5636678B2 (ja) * | 2010-01-19 | 2014-12-10 | ソニー株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
US8677268B2 (en) | 2010-01-26 | 2014-03-18 | Apple Inc. | Device, method, and graphical user interface for resizing objects |
US8539385B2 (en) * | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for precise positioning of objects |
US8539386B2 (en) * | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for selecting and moving objects |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US9411504B2 (en) * | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8261213B2 (en) * | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
CN101763270B (zh) | 2010-01-28 | 2011-06-15 | 华为终端有限公司 | 组件显示处理方法和用户设备 |
US20110185299A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Stamp Gestures |
US20110185320A1 (en) * | 2010-01-28 | 2011-07-28 | Microsoft Corporation | Cross-reference Gestures |
US20110191704A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Contextual multiplexing gestures |
US20110191719A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Cut, Punch-Out, and Rip Gestures |
US9519356B2 (en) * | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US9310994B2 (en) * | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US20110209098A1 (en) * | 2010-02-19 | 2011-08-25 | Hinckley Kenneth P | On and Off-Screen Gesture Combinations |
US8799827B2 (en) * | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9965165B2 (en) * | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US9274682B2 (en) * | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US20110209080A1 (en) * | 2010-02-24 | 2011-08-25 | Htc Corporation | Display method and electronic device for using the same |
US20110205157A1 (en) * | 2010-02-24 | 2011-08-25 | Walline Erin K | System and Method for Information Handling System Touchpad Enablement |
US8539384B2 (en) * | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US8473870B2 (en) * | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US20110209058A1 (en) * | 2010-02-25 | 2011-08-25 | Microsoft Corporation | Multi-screen hold and tap gesture |
US9454304B2 (en) * | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US9075522B2 (en) * | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US8471814B2 (en) * | 2010-02-26 | 2013-06-25 | Microsoft Corporation | User interface control using a keyboard |
TWI545468B (zh) * | 2010-03-04 | 2016-08-11 | Sentelic Corp | Input device |
JP5306266B2 (ja) * | 2010-03-15 | 2013-10-02 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US8756522B2 (en) * | 2010-03-19 | 2014-06-17 | Blackberry Limited | Portable electronic device and method of controlling same |
US9990062B2 (en) * | 2010-03-26 | 2018-06-05 | Nokia Technologies Oy | Apparatus and method for proximity based input |
DE102011006448A1 (de) | 2010-03-31 | 2011-10-06 | Tk Holdings, Inc. | Lenkradsensoren |
DE102011006344B4 (de) | 2010-03-31 | 2020-03-12 | Joyson Safety Systems Acquisition Llc | Insassenmesssystem |
DE102011006649B4 (de) | 2010-04-02 | 2018-05-03 | Tk Holdings Inc. | Lenkrad mit Handsensoren |
US20110252357A1 (en) | 2010-04-07 | 2011-10-13 | Imran Chaudhri | Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications |
US9823831B2 (en) | 2010-04-07 | 2017-11-21 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US9513801B2 (en) * | 2010-04-07 | 2016-12-06 | Apple Inc. | Accessing electronic notifications and settings icons with gestures |
US8448084B2 (en) * | 2010-04-08 | 2013-05-21 | Twitter, Inc. | User interface mechanics |
TWI413922B (zh) * | 2010-04-23 | 2013-11-01 | Primax Electronics Ltd | 觸控板之控制方法與應用該方法之觸控裝置 |
US9134897B2 (en) | 2010-04-26 | 2015-09-15 | Via Technologies, Inc. | Electronic system and method for operating touch screen thereof |
US8810509B2 (en) * | 2010-04-27 | 2014-08-19 | Microsoft Corporation | Interfacing with a computing application using a multi-digit sensor |
JP2011238125A (ja) * | 2010-05-12 | 2011-11-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5533254B2 (ja) * | 2010-05-24 | 2014-06-25 | アイシン・エィ・ダブリュ株式会社 | 情報表示装置、情報表示方法及びプログラム |
US20110298720A1 (en) * | 2010-06-02 | 2011-12-08 | Rockwell Automation Technologies, Inc. | System and method for the operation of a touch screen |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
EP2393000B1 (de) * | 2010-06-04 | 2019-08-07 | Lg Electronics Inc. | Mobiles Endgerät zur Bereitstellung eines Multiplayer-Spiels und Verfahren zur Steuerung des Betriebs des mobilen Endgeräts |
US8749499B2 (en) | 2010-06-08 | 2014-06-10 | Sap Ag | Touch screen for bridging multi and/or single touch points to applications |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
WO2011158475A1 (ja) | 2010-06-16 | 2011-12-22 | パナソニック株式会社 | 情報入力装置、情報入力方法及びプログラム |
US8487955B2 (en) * | 2010-06-30 | 2013-07-16 | Xerox Corporation | Language-based color editing for mobile devices |
JP5241038B2 (ja) * | 2010-07-01 | 2013-07-17 | パナソニック株式会社 | 電子機器、表示制御方法、及びプログラム |
US8773370B2 (en) | 2010-07-13 | 2014-07-08 | Apple Inc. | Table editing systems with gesture-based insertion and deletion of columns and rows |
US20120026077A1 (en) * | 2010-07-28 | 2012-02-02 | Google Inc. | Mapping trackpad operations to touchscreen events |
CN102346618A (zh) * | 2010-07-29 | 2012-02-08 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及其数据传输方法 |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
JP5465135B2 (ja) * | 2010-08-30 | 2014-04-09 | 富士フイルム株式会社 | 医療情報表示装置および方法、並びにプログラム |
CN101943995A (zh) * | 2010-09-01 | 2011-01-12 | 惠州Tcl移动通信有限公司 | 一种移动终端及其触摸屏的显示信息处理方法和装置 |
US8854318B2 (en) | 2010-09-01 | 2014-10-07 | Nokia Corporation | Mode switching |
JP5630160B2 (ja) * | 2010-09-07 | 2014-11-26 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US20120056823A1 (en) * | 2010-09-08 | 2012-03-08 | Telefonaktiebolaget L M Ericsson (Publ) | Gesture-Based Addressing of Devices |
US8564728B2 (en) | 2010-09-08 | 2013-10-22 | Telefonaktiebolaget L M Ericsson (Publ) | Gesture-based control of IPTV system |
US9003298B2 (en) * | 2010-09-21 | 2015-04-07 | Microsoft Corporation | Web page application controls |
US9747270B2 (en) * | 2011-01-07 | 2017-08-29 | Microsoft Technology Licensing, Llc | Natural input for spreadsheet actions |
US20120075196A1 (en) * | 2010-09-23 | 2012-03-29 | Nokia Corporation | Apparatus and method for user input |
US9235474B1 (en) | 2011-02-17 | 2016-01-12 | Axcient, Inc. | Systems and methods for maintaining a virtual failover volume of a target computing system |
US8589350B1 (en) | 2012-04-02 | 2013-11-19 | Axcient, Inc. | Systems, methods, and media for synthesizing views of file system backups |
US8954544B2 (en) | 2010-09-30 | 2015-02-10 | Axcient, Inc. | Cloud-based virtual machines and offices |
US8924360B1 (en) | 2010-09-30 | 2014-12-30 | Axcient, Inc. | Systems and methods for restoring a file |
US9705730B1 (en) | 2013-05-07 | 2017-07-11 | Axcient, Inc. | Cloud storage using Merkle trees |
US10284437B2 (en) | 2010-09-30 | 2019-05-07 | Efolder, Inc. | Cloud-based virtual machines and offices |
EP2437151B1 (de) | 2010-10-01 | 2020-07-08 | Samsung Electronics Co., Ltd. | Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät |
KR101743632B1 (ko) | 2010-10-01 | 2017-06-07 | 삼성전자주식회사 | 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법 |
US20120084737A1 (en) | 2010-10-01 | 2012-04-05 | Flextronics Id, Llc | Gesture controls for multi-screen hierarchical applications |
US20120218202A1 (en) | 2010-10-01 | 2012-08-30 | Sanjiv Sirpal | Windows position control for phone applications |
EP2437153A3 (de) * | 2010-10-01 | 2016-10-05 | Samsung Electronics Co., Ltd. | Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät |
US9678572B2 (en) | 2010-10-01 | 2017-06-13 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
FR2965962B1 (fr) * | 2010-10-07 | 2014-11-21 | Compagnie Ind Et Financiere Dingenierie Ingenico | Dispositif de saisie de donnees en braille, procede et produit programme d'ordinateur correspondants. |
JP5648405B2 (ja) * | 2010-10-12 | 2015-01-07 | コニカミノルタ株式会社 | 画像形成装置およびコンピュータプログラム |
JP5199325B2 (ja) * | 2010-10-14 | 2013-05-15 | シャープ株式会社 | 情報入力装置及び画像形成装置 |
KR101915615B1 (ko) | 2010-10-14 | 2019-01-07 | 삼성전자주식회사 | 모션 기반 사용자 인터페이스 제어 장치 및 방법 |
CN102467315A (zh) * | 2010-10-29 | 2012-05-23 | 国际商业机器公司 | 控制具有触摸式信号输入装置的电子设备的方法和系统 |
US9141285B2 (en) | 2010-11-05 | 2015-09-22 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
US8587547B2 (en) | 2010-11-05 | 2013-11-19 | Apple Inc. | Device, method, and graphical user interface for manipulating soft keyboards |
KR101522345B1 (ko) | 2010-11-12 | 2015-05-21 | 주식회사 케이티 | 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치 |
US20120133579A1 (en) * | 2010-11-30 | 2012-05-31 | Microsoft Corporation | Gesture recognition management |
US8812973B1 (en) | 2010-12-07 | 2014-08-19 | Google Inc. | Mobile device text-formatting |
JP5604279B2 (ja) * | 2010-12-08 | 2014-10-08 | 日本システムウエア株式会社 | ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体 |
US9201539B2 (en) | 2010-12-17 | 2015-12-01 | Microsoft Technology Licensing, Llc | Supplementing a touch input mechanism with fingerprint detection |
JPWO2012081699A1 (ja) | 2010-12-17 | 2014-05-22 | Necカシオモバイルコミュニケーションズ株式会社 | 携帯端末装置、表示制御方法およびプログラム |
CN106095418B (zh) * | 2010-12-20 | 2019-09-13 | 苹果公司 | 事件识别 |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
KR101523866B1 (ko) * | 2010-12-20 | 2015-05-28 | 애플 인크. | 이벤트 인식 |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
KR101718893B1 (ko) * | 2010-12-24 | 2017-04-05 | 삼성전자주식회사 | 터치 인터페이스 제공 방법 및 장치 |
CN105704841B (zh) * | 2010-12-28 | 2019-03-08 | 联想(北京)有限公司 | 一种电子设备间交换信息的方法和电子设备 |
US9223471B2 (en) * | 2010-12-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Touch screen control |
KR20120075839A (ko) * | 2010-12-29 | 2012-07-09 | 삼성전자주식회사 | 터치스크린 단말기에서 마우스 우 클릭 기능 제공 방법 및 장치 |
KR101802498B1 (ko) * | 2010-12-31 | 2017-11-28 | 주식회사 케이티 | 이동 단말기 및 이동 단말기에서 터치 패턴 인식에 따른 지도 위치 검색 방법 |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
TW201232349A (en) * | 2011-01-21 | 2012-08-01 | Novatek Microelectronics Corp | Single finger gesture determination method, touch control chip, touch control system and computer system |
US10365819B2 (en) | 2011-01-24 | 2019-07-30 | Apple Inc. | Device, method, and graphical user interface for displaying a character input user interface |
US9092132B2 (en) | 2011-01-24 | 2015-07-28 | Apple Inc. | Device, method, and graphical user interface with a dynamic gesture disambiguation threshold |
CN102622116A (zh) * | 2011-01-30 | 2012-08-01 | 联咏科技股份有限公司 | 单指手势判断方法、触控感应控制芯片及触控系统 |
JP5857255B2 (ja) * | 2011-01-31 | 2016-02-10 | パナソニックIpマネジメント株式会社 | 情報処理装置、処理制御方法、プログラム及び記録媒体 |
TWI455002B (zh) * | 2011-02-01 | 2014-10-01 | Edamak Corp | 近接手勢偵測裝置及方法 |
US8839156B2 (en) * | 2011-02-03 | 2014-09-16 | Disney Enterprises, Inc. | Pointer tool for touch screens |
US9665250B2 (en) | 2011-02-07 | 2017-05-30 | Blackberry Limited | Portable electronic device and method of controlling same |
KR101873787B1 (ko) | 2011-02-10 | 2018-07-03 | 삼성전자주식회사 | 터치스크린 단말기에서 멀티 터치 입력 처리 방법 및 장치 |
CA2827501A1 (en) * | 2011-02-17 | 2012-08-23 | Nike International Ltd. | Location mapping |
KR20120095034A (ko) * | 2011-02-18 | 2012-08-28 | 삼성전자주식회사 | 휴대단말기의 터치패드 구동 방법 및 장치 |
US9594432B2 (en) | 2011-02-18 | 2017-03-14 | Nec Corporation | Electronic device, control setting method and program |
US8782566B2 (en) | 2011-02-22 | 2014-07-15 | Cisco Technology, Inc. | Using gestures to schedule and manage meetings |
TW201237725A (en) * | 2011-03-04 | 2012-09-16 | Novatek Microelectronics Corp | Single-finger and multi-touch gesture determination method, touch control chip, touch control system and computer system |
US9442652B2 (en) * | 2011-03-07 | 2016-09-13 | Lester F. Ludwig | General user interface gesture lexicon and grammar frameworks for multi-touch, high dimensional touch pad (HDTP), free-space camera, and other user interfaces |
TWI483171B (zh) * | 2011-03-10 | 2015-05-01 | Chi Mei Comm Systems Inc | 檔案管理系統及方法 |
CN102681703A (zh) * | 2011-03-10 | 2012-09-19 | 联咏科技股份有限公司 | 单指与多指手势判断方法、触控感应控制芯片及触控系统 |
US8760424B2 (en) * | 2011-03-17 | 2014-06-24 | Intellitact Llc | Touch enhanced interface |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
JP5716502B2 (ja) * | 2011-04-06 | 2015-05-13 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP5716503B2 (ja) * | 2011-04-06 | 2015-05-13 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
TWI483172B (zh) * | 2011-04-07 | 2015-05-01 | Chi Mei Comm Systems Inc | 編排行動裝置用戶介面的方法和系統 |
US9367229B2 (en) * | 2011-04-08 | 2016-06-14 | Adobe Systems Incorporated | Touch-enabled device navigation system |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
KR20130052749A (ko) * | 2011-04-15 | 2013-05-23 | 엘지전자 주식회사 | 터치 기반 사용자 인터페이스 장치 및 방법 |
KR101199618B1 (ko) | 2011-05-11 | 2012-11-08 | 주식회사 케이티테크 | 화면 분할 표시 장치 및 방법 |
US9329773B2 (en) * | 2011-05-19 | 2016-05-03 | International Business Machines Corporation | Scalable gesture-based device control |
JP2012243163A (ja) * | 2011-05-20 | 2012-12-10 | Sony Corp | 電子機器、プログラム及び制御方法 |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9032338B2 (en) | 2011-05-30 | 2015-05-12 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating and editing text |
US8661339B2 (en) | 2011-05-31 | 2014-02-25 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
CN103608760A (zh) * | 2011-06-03 | 2014-02-26 | 谷歌公司 | 用于选择文本的手势 |
US9513799B2 (en) | 2011-06-05 | 2016-12-06 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US20120311444A1 (en) * | 2011-06-05 | 2012-12-06 | Apple Inc. | Portable multifunction device, method, and graphical user interface for controlling media playback using gestures |
KR101810884B1 (ko) * | 2011-06-07 | 2017-12-20 | 삼성전자주식회사 | 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법 |
TWI470532B (zh) * | 2011-06-09 | 2015-01-21 | Inventec Corp | 電子裝置及其操控方法 |
JP5790203B2 (ja) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム |
JP2013020289A (ja) * | 2011-07-07 | 2013-01-31 | Alps Electric Co Ltd | 入力処理装置 |
KR101948645B1 (ko) | 2011-07-11 | 2019-02-18 | 삼성전자 주식회사 | 그래픽 오브젝트를 이용한 컨텐츠 제어 방법 및 장치 |
US20130019175A1 (en) * | 2011-07-14 | 2013-01-17 | Microsoft Corporation | Submenus for context based menu system |
US9582187B2 (en) | 2011-07-14 | 2017-02-28 | Microsoft Technology Licensing, Llc | Dynamic context based menus |
CN102902469B (zh) * | 2011-07-25 | 2015-08-19 | 宸鸿光电科技股份有限公司 | 手势识别方法及触控系统 |
US8687023B2 (en) * | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
WO2013022222A2 (en) * | 2011-08-05 | 2013-02-14 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same |
ES2958183T3 (es) | 2011-08-05 | 2024-02-05 | Samsung Electronics Co Ltd | Procedimiento de control de aparatos electrónicos basado en el reconocimiento de voz y de movimiento, y aparato electrónico que aplica el mismo |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
EP2557397B1 (de) * | 2011-08-12 | 2014-02-19 | Technisat Digital Gmbh | Verfahren zum Bestimmen einer Route mittels einer Navigationseinrichtung |
KR20130052753A (ko) * | 2011-08-16 | 2013-05-23 | 삼성전자주식회사 | 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기 |
US10706096B2 (en) | 2011-08-18 | 2020-07-07 | Apple Inc. | Management of local and remote media items |
US8806369B2 (en) | 2011-08-26 | 2014-08-12 | Apple Inc. | Device, method, and graphical user interface for managing and interacting with concurrently open software applications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
JP5576841B2 (ja) | 2011-09-09 | 2014-08-20 | Kddi株式会社 | 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
CN104115107B (zh) * | 2011-09-13 | 2018-01-09 | 纽曼无限公司 | 用于操纵用户界面元件的装置、方法和计算机可读存储介质 |
EP2573666B1 (de) * | 2011-09-21 | 2018-09-05 | LG Electronics Inc. | Mobiles Endgerät und Steuerungsverfahren dafür |
KR101869774B1 (ko) * | 2011-09-21 | 2018-06-22 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US9182935B2 (en) | 2011-09-27 | 2015-11-10 | Z124 | Secondary single screen mode activation through menu option |
US9753623B2 (en) | 2011-10-03 | 2017-09-05 | Furuno Electric Co., Ltd. | Device having touch panel, radar apparatus, plotter apparatus, ship network system, viewpoint changing method and viewpoint changing program |
US9459716B2 (en) | 2011-10-03 | 2016-10-04 | Furuno Electric Co., Ltd. | Device having touch panel, radar apparatus, plotter apparatus, ship network system, information displaying method and information displaying program |
WO2013051050A1 (ja) | 2011-10-03 | 2013-04-11 | 古野電気株式会社 | タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、シンボル特定方法及びシンボル特定プログラム |
US9157750B2 (en) | 2011-10-03 | 2015-10-13 | Furuno Electric Co., Ltd. | Device having touch panel, radar apparatus, plotter apparatus, ship network system, information display method and information display program |
TWI488487B (zh) * | 2011-10-18 | 2015-06-11 | Acer Inc | 利用手勢調整視訊影像壓縮的方法 |
CN104160364A (zh) | 2011-10-18 | 2014-11-19 | 卡内基梅隆大学 | 用于分类触敏表面上的触摸事件的方法和设备 |
US9053083B2 (en) | 2011-11-04 | 2015-06-09 | Microsoft Technology Licensing, Llc | Interaction between web gadgets and spreadsheets |
TWI597626B (zh) | 2011-11-08 | 2017-09-01 | 威盛電子股份有限公司 | 觸控面板的控制裝置、單點多指動作判斷方法以及用於產生單點多指動作的觸控筆 |
US9367230B2 (en) * | 2011-11-08 | 2016-06-14 | Microsoft Technology Licensing, Llc | Interaction models for indirect interaction devices |
US9141280B2 (en) | 2011-11-09 | 2015-09-22 | Blackberry Limited | Touch-sensitive display method and apparatus |
US10082950B2 (en) * | 2011-11-09 | 2018-09-25 | Joseph T. LAPP | Finger-mapped character entry systems |
US9383858B2 (en) * | 2011-11-23 | 2016-07-05 | Guangzhou Ucweb Computer Technology Co., Ltd | Method and device for executing an operation on a mobile device |
CN103135755B (zh) * | 2011-12-02 | 2016-04-06 | 深圳泰山在线科技有限公司 | 交互系统及方法 |
US9286414B2 (en) | 2011-12-02 | 2016-03-15 | Microsoft Technology Licensing, Llc | Data discovery and description service |
US20130155010A1 (en) * | 2011-12-14 | 2013-06-20 | Microchip Technology Incorporated | Capacitive Proximity Based Gesture Input System |
US8902180B2 (en) * | 2011-12-16 | 2014-12-02 | Nokia Corporation | Methods, apparatuses, and computer program products for enabling use of remote devices with pre-defined gestures |
US9292094B2 (en) | 2011-12-16 | 2016-03-22 | Microsoft Technology Licensing, Llc | Gesture inferred vocabulary bindings |
CN106648434B (zh) * | 2011-12-22 | 2020-09-04 | 阿里巴巴(中国)有限公司 | 通过拖拽手势控制应用界面的方法和装置 |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
FR2985049B1 (fr) * | 2011-12-22 | 2014-01-31 | Nanotec Solution | Dispositif de mesure capacitive a electrodes commutees pour interfaces tactiles et sans contact |
US9116611B2 (en) * | 2011-12-29 | 2015-08-25 | Apple Inc. | Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input |
KR101951480B1 (ko) * | 2012-01-09 | 2019-02-22 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
US9342181B2 (en) | 2012-01-09 | 2016-05-17 | Nvidia Corporation | Touch-screen input/output device touch sensing techniques |
KR20130083195A (ko) * | 2012-01-12 | 2013-07-22 | 삼성전자주식회사 | 터치를 이용한 키보드 레이아웃 변경을 위한 방법 및 장치 |
TW201329837A (zh) * | 2012-01-13 | 2013-07-16 | Fih Hong Kong Ltd | 電子設備解鎖系統及方法 |
US9171099B2 (en) | 2012-01-26 | 2015-10-27 | Microsoft Technology Licensing, Llc | System and method for providing calculation web services for online documents |
KR20130091046A (ko) * | 2012-02-07 | 2013-08-16 | 김지영 | 아이디어 휠 논리구조 기반형 iw어플리케이션모듈 |
US9395901B2 (en) * | 2012-02-08 | 2016-07-19 | Blackberry Limited | Portable electronic device and method of controlling same |
EP3196752B1 (de) * | 2012-02-09 | 2020-05-06 | Sony Corporation | Kapazitive berührungstafelvorrichtung, entsprechendes berührungseingabeerkennungsverfahren und entsprechendes computerprogrammprodukt |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
US20130215038A1 (en) * | 2012-02-17 | 2013-08-22 | Rukman Senanayake | Adaptable actuated input device with integrated proximity detection |
KR101873413B1 (ko) * | 2012-02-17 | 2018-07-02 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
US8830193B2 (en) | 2012-02-23 | 2014-09-09 | Honeywell International Inc. | Controlling views in display device with touch screen |
US9977876B2 (en) * | 2012-02-24 | 2018-05-22 | Perkinelmer Informatics, Inc. | Systems, methods, and apparatus for drawing chemical structures using touch and gestures |
KR101894567B1 (ko) | 2012-02-24 | 2018-09-03 | 삼성전자 주식회사 | 락스크린 운용 방법 및 이를 지원하는 단말기 |
JP2013179402A (ja) * | 2012-02-28 | 2013-09-09 | Sony Corp | 端末装置、情報処理装置、表示方法、及び表示制御方法 |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
WO2013138052A1 (en) * | 2012-03-13 | 2013-09-19 | Microsoft Corporation | Web page application controls |
US20130246975A1 (en) * | 2012-03-15 | 2013-09-19 | Chandar Kumar Oddiraju | Gesture group selection |
US8803831B1 (en) | 2012-03-23 | 2014-08-12 | Google Inc. | Chording sheath for computing device |
US9575652B2 (en) | 2012-03-31 | 2017-02-21 | Microsoft Technology Licensing, Llc | Instantiable gesture objects |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
JP5790578B2 (ja) * | 2012-04-10 | 2015-10-07 | 株式会社デンソー | 表示システム、表示装置、及び操作装置 |
JP5663519B2 (ja) * | 2012-04-10 | 2015-02-04 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置および画像形成装置 |
JP5645869B2 (ja) * | 2012-04-13 | 2014-12-24 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置および画像形成装置 |
WO2013154720A1 (en) | 2012-04-13 | 2013-10-17 | Tk Holdings Inc. | Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same |
CN102622182A (zh) * | 2012-04-16 | 2012-08-01 | 李波 | 具备近接感测投影点坐标指示的离屏触控交互系统 |
US20130285924A1 (en) * | 2012-04-26 | 2013-10-31 | Research In Motion Limited | Method and Apparatus Pertaining to the Interpretation of Touch-Based Actions |
TWI456487B (zh) * | 2012-04-26 | 2014-10-11 | Acer Inc | 行動裝置以及手勢判斷方法 |
US9772700B2 (en) | 2012-04-30 | 2017-09-26 | Blackberry Limited | Device and method for processing user input |
US20130285927A1 (en) * | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard with correction of previously input text |
US20140040789A1 (en) * | 2012-05-08 | 2014-02-06 | Adobe Systems Incorporated | Tool configuration history in a user interface |
AU2013259613B2 (en) | 2012-05-09 | 2016-07-21 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
WO2013169846A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying additional information in response to a user contact |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
CN109298789B (zh) | 2012-05-09 | 2021-12-31 | 苹果公司 | 用于针对激活状态提供反馈的设备、方法和图形用户界面 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
EP2847659B1 (de) | 2012-05-09 | 2019-09-04 | Apple Inc. | Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen anzeigezuständen als reaktion auf eine geste |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
KR101806350B1 (ko) | 2012-05-09 | 2017-12-07 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
EP3264252B1 (de) | 2012-05-09 | 2019-11-27 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zum ausführen einer operation gemäss eines ausgewählten operationsmodus |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US20130307788A1 (en) * | 2012-05-16 | 2013-11-21 | Motorola Solutions, Inc. | Device and method for automated use of force sensing touch panels |
US10168835B2 (en) | 2012-05-23 | 2019-01-01 | Flatfrog Laboratories Ab | Spatial resolution in touch displays |
US8671361B2 (en) * | 2012-05-24 | 2014-03-11 | Blackberry Limited | Presentation of image on display screen with combination crop and rotation and with auto-resizing of crop field |
CN103455243B (zh) * | 2012-06-04 | 2016-09-28 | 宏达国际电子股份有限公司 | 调整屏幕对象尺寸的方法及装置 |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9223489B2 (en) * | 2012-06-13 | 2015-12-29 | Adobe Systems Incorporated | Method and apparatus for gesture based copying of attributes |
CN102750096A (zh) * | 2012-06-15 | 2012-10-24 | 深圳乐投卡尔科技有限公司 | 一种车载Android平台多点手势控制方法 |
US9493342B2 (en) | 2012-06-21 | 2016-11-15 | Nextinput, Inc. | Wafer level MEMS force dies |
US8970525B1 (en) | 2012-06-27 | 2015-03-03 | Google Inc. | Method and system for trackpad input error mitigation |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
CN102779009B (zh) * | 2012-06-29 | 2015-04-08 | 华为终端有限公司 | 一种应用程序界面显示方法及终端 |
CN103513785A (zh) * | 2012-06-29 | 2014-01-15 | 联想(北京)有限公司 | 一种信息处理方法、电子设备及输入设备 |
EP2870445A1 (de) | 2012-07-05 | 2015-05-13 | Ian Campbell | Mikroelektromechanischer lastsensor und verfahren zur herstellung davon |
CN109508091A (zh) * | 2012-07-06 | 2019-03-22 | 原相科技股份有限公司 | 输入系统 |
WO2014014806A1 (en) | 2012-07-15 | 2014-01-23 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3d interaction |
US9268424B2 (en) * | 2012-07-18 | 2016-02-23 | Sony Corporation | Mobile client device, operation method, recording medium, and operation system |
US9058103B2 (en) * | 2012-07-25 | 2015-06-16 | Facebook, Inc. | Gestures for keyboard switch |
TW201405363A (zh) * | 2012-07-26 | 2014-02-01 | Hon Hai Prec Ind Co Ltd | 應用程式控制系統及方法 |
US9823935B2 (en) * | 2012-07-26 | 2017-11-21 | Nvidia Corporation | Techniques for latching input events to display flips |
KR102101818B1 (ko) * | 2012-07-30 | 2020-04-17 | 삼성전자주식회사 | 단말기의 데이터전송 제어장치 및 방법 |
CN103576961A (zh) * | 2012-08-06 | 2014-02-12 | 闫化玉 | 使用通用符号和通用符号的变体符号手势人机互交的方法 |
US9507513B2 (en) | 2012-08-17 | 2016-11-29 | Google Inc. | Displaced double tap gesture |
US9250783B2 (en) | 2012-08-21 | 2016-02-02 | Apple Inc. | Toggle gesture during drag gesture |
JP5928245B2 (ja) * | 2012-08-23 | 2016-06-01 | カシオ計算機株式会社 | データ処理装置及びプログラム |
US9552068B2 (en) * | 2012-08-27 | 2017-01-24 | Microchip Technology Germany Gmbh | Input device with hand posture control |
US9218118B2 (en) | 2012-09-11 | 2015-12-22 | Apple Inc. | Media player playlist management |
US9558278B2 (en) | 2012-09-11 | 2017-01-31 | Apple Inc. | Integrated content recommendation |
CN104603577A (zh) * | 2012-09-12 | 2015-05-06 | 丰田自动车株式会社 | 便携终端装置、车载装置以及车载系统 |
DE112013004512T5 (de) | 2012-09-17 | 2015-06-03 | Tk Holdings Inc. | Einzelschicht-Kraftsensor |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US9020845B2 (en) | 2012-09-25 | 2015-04-28 | Alexander Hieronymous Marlowe | System and method for enhanced shopping, preference, profile and survey data input and gathering |
US9785647B1 (en) | 2012-10-02 | 2017-10-10 | Axcient, Inc. | File system virtualization |
US9430123B2 (en) * | 2012-10-09 | 2016-08-30 | Sap Se | Triggering a refresh of displayed content on a mobile device |
US10877780B2 (en) | 2012-10-15 | 2020-12-29 | Famous Industries, Inc. | Visibility detection using gesture fingerprinting |
US9501171B1 (en) * | 2012-10-15 | 2016-11-22 | Famous Industries, Inc. | Gesture fingerprinting |
US10908929B2 (en) | 2012-10-15 | 2021-02-02 | Famous Industries, Inc. | Human versus bot detection using gesture fingerprinting |
WO2014062730A1 (en) | 2012-10-15 | 2014-04-24 | Famous Industries, Inc. | Efficient manipulation of surfaces in multi-dimensional space using energy agents |
JP5552632B2 (ja) * | 2012-10-29 | 2014-07-16 | 株式会社東芝 | 情報処理装置および入力方法 |
US9058100B2 (en) * | 2012-11-06 | 2015-06-16 | Fang Li | Using motion gestures to send, save, delete, and reject a message |
US9852140B1 (en) | 2012-11-07 | 2017-12-26 | Axcient, Inc. | Efficient file replication |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
US10503359B2 (en) * | 2012-11-15 | 2019-12-10 | Quantum Interface, Llc | Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same |
US10289204B2 (en) * | 2012-11-15 | 2019-05-14 | Quantum Interface, Llc | Apparatuses for controlling electrical devices and software programs and methods for making and using same |
WO2014083953A1 (ja) * | 2012-11-27 | 2014-06-05 | ソニー株式会社 | 表示装置及び表示方法、並びにコンピューター・プログラム |
US9235342B2 (en) * | 2012-11-28 | 2016-01-12 | International Business Machines Corporation | Selective sharing of displayed content in a view presented on a touchscreen of a processing system |
CN103019378B (zh) * | 2012-12-07 | 2016-09-07 | 无锡清华信息科学与技术国家实验室物联网技术中心 | 一种移动电子设备手势控制交互方法、装置及移动终端 |
US9535583B2 (en) | 2012-12-13 | 2017-01-03 | Perkinelmer Informatics, Inc. | Draw-ahead feature for chemical structure drawing applications |
US9134893B2 (en) * | 2012-12-14 | 2015-09-15 | Barnes & Noble College Booksellers, Llc | Block-based content selecting technique for touch screen UI |
US9134892B2 (en) | 2012-12-14 | 2015-09-15 | Barnes & Noble College Booksellers, Llc | Drag-based content selection technique for touch screen UI |
US20140173529A1 (en) * | 2012-12-14 | 2014-06-19 | Barnesandnoble.Com Llc | Circular gesture for touch sensitive ui control feature |
CN104854481A (zh) * | 2012-12-17 | 2015-08-19 | Nec显示器解决方案株式会社 | 控制装置、控制方法以及显示装置 |
TWI475472B (zh) * | 2012-12-19 | 2015-03-01 | Inventec Corp | 在觸控螢幕中提供繪圖操作之系統及其方法 |
CN103902080A (zh) * | 2012-12-27 | 2014-07-02 | 华硕电脑股份有限公司 | 触控装置以及触控处理方法 |
WO2014105279A1 (en) * | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
AU2013368441B2 (en) | 2012-12-29 | 2016-04-14 | Apple Inc. | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
WO2014105274A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for navigating user interface hierarchies |
CN105144057B (zh) | 2012-12-29 | 2019-05-17 | 苹果公司 | 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面 |
WO2014105276A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
CN107831991B (zh) | 2012-12-29 | 2020-11-27 | 苹果公司 | 用于确定是滚动还是选择内容的设备、方法和图形用户界面 |
KR102064965B1 (ko) | 2013-01-04 | 2020-01-10 | 엘지전자 주식회사 | 더블 터치 제스처를 이용한 단말기 제어 방법 및 그 단말기 |
JP2016503215A (ja) | 2013-01-15 | 2016-02-01 | サーク・コーポレーション | オーバーサンプリング山登りおよび山下り法を範囲と併せて使用する多次元多重指検索 |
CN103135929A (zh) * | 2013-01-31 | 2013-06-05 | 北京小米科技有限责任公司 | 控制应用界面移动的方法、装置和终端设备 |
US9323343B2 (en) * | 2013-01-31 | 2016-04-26 | Panasonic Intellectual Property Corporation Of America | Information processing method and information processing apparatus |
JP6232706B2 (ja) * | 2013-02-05 | 2017-11-22 | コニカミノルタ株式会社 | 情報表示装置、画像形成装置、情報表示装置の制御方法、および情報表示装置の制御プログラム |
US20140237422A1 (en) * | 2013-02-15 | 2014-08-21 | Flatfrog Laboratories Ab | Interpretation of pressure based gesture |
US20140232672A1 (en) * | 2013-02-20 | 2014-08-21 | Tencent Technology (Shenzhen) Company Limited | Method and terminal for triggering application programs and application program functions |
JP5870212B2 (ja) * | 2013-02-20 | 2016-02-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 携帯情報端末の制御方法及びプログラム |
US9292153B1 (en) * | 2013-03-07 | 2016-03-22 | Axcient, Inc. | Systems and methods for providing efficient and focused visualization of data |
US9397907B1 (en) | 2013-03-07 | 2016-07-19 | Axcient, Inc. | Protection status determinations for computing devices |
KR102117086B1 (ko) * | 2013-03-08 | 2020-06-01 | 삼성디스플레이 주식회사 | 단말기 및 그의 조작 방법 |
US8854361B1 (en) | 2013-03-13 | 2014-10-07 | Cambridgesoft Corporation | Visually augmenting a graphical rendering of a chemical structure representation or biological sequence representation with multi-dimensional information |
US9823813B2 (en) * | 2013-03-15 | 2017-11-21 | Salesforce.Com, Inc. | Apparatus and methods for performing an action on a database record |
US9477404B2 (en) | 2013-03-15 | 2016-10-25 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
AU2014238101A1 (en) * | 2013-03-15 | 2015-10-08 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US9658740B2 (en) | 2013-03-15 | 2017-05-23 | Apple Inc. | Device, method, and graphical user interface for managing concurrently open software applications |
US20140280329A1 (en) | 2013-03-15 | 2014-09-18 | Salesforce.Com, Inc. | Systems and methods for cross-referencing feed items |
US9170676B2 (en) | 2013-03-15 | 2015-10-27 | Qualcomm Incorporated | Enhancing touch inputs with gestures |
CN104063140B (zh) * | 2013-03-18 | 2017-11-03 | 联想(北京)有限公司 | 选择对象的方法和电子设备 |
KR20140114766A (ko) | 2013-03-19 | 2014-09-29 | 퀵소 코 | 터치 입력을 감지하기 위한 방법 및 장치 |
US9612689B2 (en) | 2015-02-02 | 2017-04-04 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer |
US9013452B2 (en) | 2013-03-25 | 2015-04-21 | Qeexo, Co. | Method and system for activating different interactive functions using different types of finger contacts |
US20140298219A1 (en) * | 2013-03-29 | 2014-10-02 | Microsoft Corporation | Visual Selection and Grouping |
US9715282B2 (en) * | 2013-03-29 | 2017-07-25 | Microsoft Technology Licensing, Llc | Closing, starting, and restarting applications |
US10114536B2 (en) * | 2013-03-29 | 2018-10-30 | Microsoft Technology Licensing, Llc | Systems and methods for performing actions for users from a locked device |
US9450952B2 (en) | 2013-05-29 | 2016-09-20 | Microsoft Technology Licensing, Llc | Live tiles without application-code execution |
KR102087896B1 (ko) * | 2013-04-03 | 2020-03-12 | 삼성전자주식회사 | 터치스크린을 가지는 전자 장치에서 텍스트 입력하는 방법 및 장치 |
US9589120B2 (en) * | 2013-04-05 | 2017-03-07 | Microsoft Technology Licensing, Llc | Behavior based authentication for touch screen devices |
US10019113B2 (en) | 2013-04-11 | 2018-07-10 | Flatfrog Laboratories Ab | Tomographic processing for touch detection |
TWI493406B (zh) * | 2013-04-24 | 2015-07-21 | Acer Inc | 電子裝置及其觸控偵測方法 |
CN104123089A (zh) * | 2013-04-27 | 2014-10-29 | 腾讯科技(深圳)有限公司 | 一种地址栏的手势操作方法、装置及触摸屏终端 |
US10599250B2 (en) | 2013-05-06 | 2020-03-24 | Qeexo, Co. | Using finger touch types to interact with electronic devices |
US9430127B2 (en) | 2013-05-08 | 2016-08-30 | Cambridgesoft Corporation | Systems and methods for providing feedback cues for touch screen interface interaction with chemical and biological structure drawing applications |
US9751294B2 (en) | 2013-05-09 | 2017-09-05 | Perkinelmer Informatics, Inc. | Systems and methods for translating three dimensional graphic molecular models to computer aided design format |
US10141930B2 (en) | 2013-06-04 | 2018-11-27 | Nvidia Corporation | Three state latch |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (de) | 2013-06-09 | 2016-04-20 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche für gesprächspersistenz über zwei oder mehrere instanzen eines digitaler assistenten |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
US10664652B2 (en) | 2013-06-15 | 2020-05-26 | Microsoft Technology Licensing, Llc | Seamless grid and canvas integration in a spreadsheet application |
CN104252302A (zh) * | 2013-06-26 | 2014-12-31 | 富泰华工业(深圳)有限公司 | 图像自适应调整系统及方法 |
WO2015005847A1 (en) | 2013-07-12 | 2015-01-15 | Flatfrog Laboratories Ab | Partial detect mode |
US10809893B2 (en) * | 2013-08-09 | 2020-10-20 | Insyde Software Corp. | System and method for re-sizing and re-positioning application windows in a touch-based computing device |
US9110561B2 (en) * | 2013-08-12 | 2015-08-18 | Apple Inc. | Context sensitive actions |
JP5456200B1 (ja) * | 2013-08-13 | 2014-03-26 | ソフトバンクモバイル株式会社 | 文字処理装置及びプログラム |
TWI480797B (zh) * | 2013-08-14 | 2015-04-11 | Pegatron Corp | 觸控方法及電子裝置 |
US9547525B1 (en) | 2013-08-21 | 2017-01-17 | Google Inc. | Drag toolbar to enter tab switching interface |
WO2015025382A1 (ja) * | 2013-08-21 | 2015-02-26 | 三菱電機株式会社 | プログラム編集用プログラム |
US9569004B2 (en) | 2013-08-22 | 2017-02-14 | Google Inc. | Swipe toolbar to switch tabs |
US9785241B2 (en) * | 2013-08-26 | 2017-10-10 | Paypal, Inc. | Gesture identification |
US9823728B2 (en) | 2013-09-04 | 2017-11-21 | Nvidia Corporation | Method and system for reduced rate touch scanning on an electronic device |
JP6223755B2 (ja) * | 2013-09-06 | 2017-11-01 | 株式会社東芝 | 方法、電子機器、及びプログラム |
US9542004B1 (en) * | 2013-09-24 | 2017-01-10 | Amazon Technologies, Inc. | Gesture-based flash |
JP2015064697A (ja) * | 2013-09-24 | 2015-04-09 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US9881592B2 (en) | 2013-10-08 | 2018-01-30 | Nvidia Corporation | Hardware overlay assignment |
US20150113436A1 (en) * | 2013-10-18 | 2015-04-23 | Citrix Systems, Inc. | Providing Enhanced Message Management User Interfaces |
CN105579929B (zh) * | 2013-10-29 | 2019-11-05 | 英特尔公司 | 基于手势的人机交互 |
US9965170B2 (en) * | 2013-11-11 | 2018-05-08 | Lenovo (Singapore) Pte. Ltd. | Multi-touch inputs for input interface control |
TWI489355B (zh) * | 2013-11-13 | 2015-06-21 | Wistron Corp | 觸控感測模組、觸控感測方法及電腦程式產品 |
KR102206053B1 (ko) * | 2013-11-18 | 2021-01-21 | 삼성전자주식회사 | 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법 |
JP2015103161A (ja) * | 2013-11-27 | 2015-06-04 | コニカミノルタ株式会社 | 画像形成装置、操作画面の表示方法、およびコンピュータプログラム |
JP6062351B2 (ja) * | 2013-11-28 | 2017-01-18 | 京セラ株式会社 | 電子機器 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9507470B2 (en) | 2013-12-16 | 2016-11-29 | Nvidia Corporation | Method and system for reduced power touch input detection on an electronic device using reduced scanning |
WO2015106246A1 (en) | 2014-01-13 | 2015-07-16 | Nextinput, Inc. | Miniaturized and ruggedized wafer level mems force sensors |
WO2015108480A1 (en) | 2014-01-16 | 2015-07-23 | Flatfrog Laboratories Ab | Improvements in tir-based optical touch systems of projection-type |
US10146376B2 (en) | 2014-01-16 | 2018-12-04 | Flatfrog Laboratories Ab | Light coupling in TIR-based optical touch systems |
JP6278262B2 (ja) * | 2014-03-12 | 2018-02-14 | ヤマハ株式会社 | 表示制御装置 |
CN103870061A (zh) * | 2014-03-14 | 2014-06-18 | 李雪飞 | 在多点触控设备上实现鼠标功能的方法 |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
EP3126969A4 (de) | 2014-04-04 | 2017-04-12 | Microsoft Technology Licensing, LLC | Erweiterbare anwendungsdarstellung |
KR102107275B1 (ko) | 2014-04-10 | 2020-05-06 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 컴퓨팅 디바이스에 대한 접이식 쉘 커버 |
CN105359055A (zh) | 2014-04-10 | 2016-02-24 | 微软技术许可有限责任公司 | 计算设备的滑盖 |
US10579252B2 (en) * | 2014-04-28 | 2020-03-03 | Ford Global Technologies, Llc | Automotive touchscreen with simulated texture for the visually impaired |
US11625145B2 (en) | 2014-04-28 | 2023-04-11 | Ford Global Technologies, Llc | Automotive touchscreen with simulated texture for the visually impaired |
DE102014208222A1 (de) * | 2014-04-30 | 2015-11-05 | Siemens Aktiengesellschaft | Verfahren zum Abrufen von Anwendungsbefehlen, Recheneinheit und medizinisches Bildgebungssystem |
KR20150134674A (ko) * | 2014-05-22 | 2015-12-02 | 삼성전자주식회사 | 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템 |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9898162B2 (en) | 2014-05-30 | 2018-02-20 | Apple Inc. | Swiping functions for messaging applications |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10255267B2 (en) | 2014-05-30 | 2019-04-09 | Apple Inc. | Device, method, and graphical user interface for a predictive keyboard |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
EP3149728B1 (de) | 2014-05-30 | 2019-01-16 | Apple Inc. | Eingabeverfahren durch einzelne äusserung mit mehreren befehlen |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9971500B2 (en) | 2014-06-01 | 2018-05-15 | Apple Inc. | Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
CN105224114A (zh) * | 2014-06-11 | 2016-01-06 | 天津富纳源创科技有限公司 | 触控板控制方法 |
EP3161594A4 (de) | 2014-06-27 | 2018-01-17 | FlatFrog Laboratories AB | Nachweis von oberflächenverschmutzung |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP6399834B2 (ja) * | 2014-07-10 | 2018-10-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
CN113824998A (zh) | 2014-09-02 | 2021-12-21 | 苹果公司 | 音乐用户界面 |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9329715B2 (en) | 2014-09-11 | 2016-05-03 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
KR20160034776A (ko) | 2014-09-22 | 2016-03-30 | 삼성전자주식회사 | 디바이스 및 상기 디바이스의 제어 방법 |
US10296206B2 (en) * | 2014-09-23 | 2019-05-21 | Microsoft Technology Licensing, Llc | Multi-finger touchpad gestures |
US9769227B2 (en) | 2014-09-24 | 2017-09-19 | Microsoft Technology Licensing, Llc | Presentation of computing environment on multiple devices |
US10606417B2 (en) | 2014-09-24 | 2020-03-31 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US10025684B2 (en) | 2014-09-24 | 2018-07-17 | Microsoft Technology Licensing, Llc | Lending target device resources to host device computing environment |
US10635296B2 (en) * | 2014-09-24 | 2020-04-28 | Microsoft Technology Licensing, Llc | Partitioned application presentation across devices |
US10448111B2 (en) | 2014-09-24 | 2019-10-15 | Microsoft Technology Licensing, Llc | Content projection |
US10282024B2 (en) | 2014-09-25 | 2019-05-07 | Qeexo, Co. | Classifying contacts or associations with a touch sensitive device |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
KR101651006B1 (ko) * | 2014-09-30 | 2016-08-24 | 원혁 | 터치 스크린 장치 및 터치 스크린 장치 동작 방법 |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
CN106662891B (zh) | 2014-10-30 | 2019-10-11 | 微软技术许可有限责任公司 | 多配置输入设备 |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
JP6055459B2 (ja) * | 2014-12-17 | 2016-12-27 | 京セラドキュメントソリューションズ株式会社 | タッチパネル装置、および画像処理装置 |
KR102049649B1 (ko) * | 2014-12-22 | 2019-11-27 | 폭스바겐 악티엔 게젤샤프트 | 손가락 기반 컨트롤 바 및 상기 컨트롤 바의 사용 |
US20160179355A1 (en) * | 2014-12-23 | 2016-06-23 | General Electric Company | System and method for managing image scan parameters in medical imaging |
CN107209608A (zh) | 2015-01-28 | 2017-09-26 | 平蛙实验室股份公司 | 动态触摸隔离帧 |
US10318074B2 (en) | 2015-01-30 | 2019-06-11 | Flatfrog Laboratories Ab | Touch-sensing OLED display with tilted emitters |
CN107209609A (zh) | 2015-02-09 | 2017-09-26 | 平蛙实验室股份公司 | 包括在传输面板上方和内部投射和检测光束的装置的光学触摸系统 |
US10401546B2 (en) | 2015-03-02 | 2019-09-03 | Flatfrog Laboratories Ab | Optical component for light coupling |
KR102264748B1 (ko) * | 2015-03-03 | 2021-06-14 | 삼성디스플레이 주식회사 | 터치 장치 및 이를 포함하는 표시 장치 |
US20160259544A1 (en) * | 2015-03-04 | 2016-09-08 | Artem Polikarpov | Systems And Methods For Virtual Periphery Interaction |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10067653B2 (en) | 2015-04-01 | 2018-09-04 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US9727151B2 (en) | 2015-04-16 | 2017-08-08 | Google Inc. | Avoiding accidental cursor movement when contacting a surface of a trackpad |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
KR102328589B1 (ko) | 2015-04-30 | 2021-11-17 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
TWI588734B (zh) * | 2015-05-26 | 2017-06-21 | 仁寶電腦工業股份有限公司 | 電子裝置及其操作方法 |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
JP6314914B2 (ja) * | 2015-06-04 | 2018-04-25 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置、画像形成装置の操作画面制御方法 |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US9961239B2 (en) | 2015-06-07 | 2018-05-01 | Apple Inc. | Touch accommodation options |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10489033B2 (en) | 2015-06-07 | 2019-11-26 | Apple Inc. | Device, method, and graphical user interface for providing and interacting with a virtual drawing aid |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
CN117486166A (zh) | 2015-06-10 | 2024-02-02 | 触控解决方案股份有限公司 | 具有容差沟槽的加固的晶圆级mems力传感器 |
US10599903B2 (en) | 2015-06-26 | 2020-03-24 | Lenovo (Beijing) Limited | Information processing method and electronic device |
WO2017019028A1 (en) * | 2015-07-28 | 2017-02-02 | Hewlett Packard Enterprise Development Lp | Application launch state determination |
US9965445B2 (en) | 2015-08-06 | 2018-05-08 | FiftyThree, Inc. | Systems and methods for gesture-based formatting |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
CN105117100A (zh) * | 2015-08-19 | 2015-12-02 | 小米科技有限责任公司 | 目标对象的显示方法和装置 |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
CN105162982A (zh) * | 2015-09-17 | 2015-12-16 | 小米科技有限责任公司 | 接听扩展功能显示方法及装置 |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11150774B2 (en) * | 2015-09-25 | 2021-10-19 | International Business Machines Corporation | Modifying display of objects on a user interface for a computing device based on detected patterns of user interaction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
JP2018536944A (ja) | 2015-12-09 | 2018-12-13 | フラットフロッグ ラボラトリーズ アーベーFlatFrog Laboratories AB | 改善されたスタイラスの識別 |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10528186B2 (en) * | 2016-03-31 | 2020-01-07 | Rovi Guides, Inc. | Systems and methods for controlling playback of a media asset using a touch screen |
WO2017192167A1 (en) | 2016-05-03 | 2017-11-09 | Google Llc | Connecting an electronic component to an interactive textile |
US10285456B2 (en) | 2016-05-16 | 2019-05-14 | Google Llc | Interactive fabric |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US10303255B2 (en) * | 2016-05-31 | 2019-05-28 | Atheer, Inc. | Method and apparatus for unified free space pose input system navigation |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10637986B2 (en) | 2016-06-10 | 2020-04-28 | Apple Inc. | Displaying and updating a set of application views |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10817126B2 (en) * | 2016-09-20 | 2020-10-27 | Apple Inc. | 3D document editing system |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
CN110100226A (zh) | 2016-11-24 | 2019-08-06 | 平蛙实验室股份公司 | 触摸信号的自动优化 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10579150B2 (en) * | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
PT3667475T (pt) | 2016-12-07 | 2022-10-17 | Flatfrog Lab Ab | Dispositivo tátil curvo |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
CN110300950B (zh) | 2017-02-06 | 2023-06-16 | 平蛙实验室股份公司 | 触摸感测系统中的光学耦合 |
US11243125B2 (en) | 2017-02-09 | 2022-02-08 | Nextinput, Inc. | Integrated piezoresistive and piezoelectric fusion force sensor |
CN116907693A (zh) | 2017-02-09 | 2023-10-20 | 触控解决方案股份有限公司 | 集成数字力传感器和相关制造方法 |
CN106843737B (zh) * | 2017-02-13 | 2020-05-08 | 北京新美互通科技有限公司 | 文本输入方法、装置及终端设备 |
US10558341B2 (en) * | 2017-02-20 | 2020-02-11 | Microsoft Technology Licensing, Llc | Unified system for bimanual interactions on flexible representations of content |
US10684758B2 (en) | 2017-02-20 | 2020-06-16 | Microsoft Technology Licensing, Llc | Unified system for bimanual interactions |
EP3590056A1 (de) | 2017-03-03 | 2020-01-08 | Perkinelmer Informatics, Inc. | Systeme und verfahren zum suchen und indizieren von dokumenten mit chemischen informationen |
EP3602257A4 (de) | 2017-03-22 | 2021-01-13 | Flatfrog Laboratories | Radiergummi für berührungsanzeigen |
CN110663015A (zh) | 2017-03-28 | 2020-01-07 | 平蛙实验室股份公司 | 触摸感应装置和用于组装的方法 |
US11431836B2 (en) | 2017-05-02 | 2022-08-30 | Apple Inc. | Methods and interfaces for initiating media playback |
US10992795B2 (en) | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10928980B2 (en) | 2017-05-12 | 2021-02-23 | Apple Inc. | User interfaces for playing and managing audio items |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US20220279063A1 (en) | 2017-05-16 | 2022-09-01 | Apple Inc. | Methods and interfaces for home media control |
TWI652614B (zh) | 2017-05-16 | 2019-03-01 | 緯創資通股份有限公司 | 攜帶式電子裝置及其操作方法 |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN111343060B (zh) | 2017-05-16 | 2022-02-11 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US11221263B2 (en) | 2017-07-19 | 2022-01-11 | Nextinput, Inc. | Microelectromechanical force sensor having a strain transfer layer arranged on the sensor die |
US11423686B2 (en) | 2017-07-25 | 2022-08-23 | Qorvo Us, Inc. | Integrated fingerprint and force sensor |
US11243126B2 (en) | 2017-07-27 | 2022-02-08 | Nextinput, Inc. | Wafer bonded piezoresistive and piezoelectric force sensor and related methods of manufacture |
US11301124B2 (en) | 2017-08-18 | 2022-04-12 | Microsoft Technology Licensing, Llc | User interface modification using preview panel |
US20190056857A1 (en) * | 2017-08-18 | 2019-02-21 | Microsoft Technology Licensing, Llc | Resizing an active region of a user interface |
US11237699B2 (en) | 2017-08-18 | 2022-02-01 | Microsoft Technology Licensing, Llc | Proximal menu generation |
CN111052058B (zh) | 2017-09-01 | 2023-10-20 | 平蛙实验室股份公司 | 改进的光学部件 |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
CN107728918A (zh) * | 2017-09-27 | 2018-02-23 | 北京三快在线科技有限公司 | 浏览连续页面的方法、装置及电子设备 |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN109634450A (zh) * | 2017-10-09 | 2019-04-16 | 华为技术有限公司 | 防误触检测方法、装置及终端 |
WO2019079420A1 (en) | 2017-10-17 | 2019-04-25 | Nextinput, Inc. | SHIFT TEMPERATURE COEFFICIENT COMPENSATION FOR FORCE SENSOR AND STRAIN GAUGE |
CN111295877B (zh) * | 2017-11-01 | 2022-01-11 | 富士胶片株式会社 | 摄像装置、其工作方法及计算机可读取介质 |
US11385108B2 (en) | 2017-11-02 | 2022-07-12 | Nextinput, Inc. | Sealed force sensor with etch stop layer |
WO2019099821A1 (en) | 2017-11-16 | 2019-05-23 | Nextinput, Inc. | Force attenuator for force sensor |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
CN110069147B (zh) * | 2018-01-23 | 2023-02-03 | 可赛尔内存股份有限公司 | 操控装置及其控制方法 |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
WO2019172826A1 (en) | 2018-03-05 | 2019-09-12 | Flatfrog Laboratories Ab | Improved touch-sensing apparatus |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US11669243B2 (en) | 2018-06-03 | 2023-06-06 | Apple Inc. | Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
US10776006B2 (en) | 2018-06-03 | 2020-09-15 | Apple Inc. | Systems and methods for activating and using a trackpad at an electronic device with a touch-sensitive display and no force sensors |
US11009989B2 (en) | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US11204682B1 (en) * | 2018-10-29 | 2021-12-21 | State Farm Mutual Automobile Insurance Company | Dynamic data-driven consolidation of user interface interactions requesting roadside assistance |
AU2019378243A1 (en) * | 2018-11-14 | 2021-06-03 | Wix.Com Ltd. | System and method for creation and handling of configurable applications for website building systems |
US10962427B2 (en) | 2019-01-10 | 2021-03-30 | Nextinput, Inc. | Slotted MEMS force sensor |
WO2020153890A1 (en) | 2019-01-25 | 2020-07-30 | Flatfrog Laboratories Ab | A videoconferencing terminal and method of operating the same |
DK201970535A1 (en) | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US11010121B2 (en) | 2019-05-31 | 2021-05-18 | Apple Inc. | User interfaces for audio media control |
KR20220027295A (ko) | 2019-05-31 | 2022-03-07 | 애플 인크. | 오디오 미디어 제어를 위한 사용자 인터페이스 |
DK201970533A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Methods and user interfaces for sharing audio |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
US11379113B2 (en) | 2019-06-01 | 2022-07-05 | Apple Inc. | Techniques for selecting text |
WO2020256452A1 (ko) * | 2019-06-19 | 2020-12-24 | 구자범 | 터치 패턴 입력을 이용한 보기 전환 장치 및 그 방법 |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
JP2023512682A (ja) | 2020-02-10 | 2023-03-28 | フラットフロッグ ラボラトリーズ アーベー | 改良型タッチ検知装置 |
US20210303473A1 (en) * | 2020-03-27 | 2021-09-30 | Datto, Inc. | Method and system of copying data to a clipboard |
US11513667B2 (en) | 2020-05-11 | 2022-11-29 | Apple Inc. | User interface for audio message |
US11416136B2 (en) | 2020-09-14 | 2022-08-16 | Apple Inc. | User interfaces for assigning and responding to user inputs |
US11392291B2 (en) | 2020-09-25 | 2022-07-19 | Apple Inc. | Methods and interfaces for media control with dynamic feedback |
Family Cites Families (716)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3333160A (en) | 1964-02-24 | 1967-07-25 | Water Economy And Res Company | Proximity responsive system |
US3541541A (en) | 1967-06-21 | 1970-11-17 | Stanford Research Inst | X-y position indicator for a display system |
US3609695A (en) | 1968-05-10 | 1971-09-28 | Honeywell Inc | Display-entry data terminal |
US3662105A (en) | 1970-05-21 | 1972-05-09 | Univ Kentucky Res Found | Electrical sensor of plane coordinates |
US3757322A (en) | 1971-02-03 | 1973-09-04 | Hall Barkan Instr Inc | Transparent touch controlled interface with interreactively related display |
US3846826A (en) | 1971-08-12 | 1974-11-05 | R Mueller | Direct television drawing and image manipulating system |
US3798370A (en) | 1972-04-17 | 1974-03-19 | Elographics Inc | Electrographic sensor for determining planar coordinates |
US3748751A (en) | 1972-09-07 | 1973-07-31 | Us Navy | Laser machine gun simulator |
US3825730A (en) | 1972-11-07 | 1974-07-23 | Searle Medidata Inc | Two-way projection system for data input |
JPS51112236A (en) | 1975-03-28 | 1976-10-04 | Hitachi Ltd | Shape position recognizer unit |
US4017848A (en) | 1975-05-19 | 1977-04-12 | Rockwell International Corporation | Transparent keyboard switch and array |
US4146924A (en) | 1975-09-22 | 1979-03-27 | Board Of Regents For Education Of The State Of Rhode Island | System for visually determining position in space and/or orientation in space and apparatus employing same |
FR2392548A2 (fr) | 1977-05-25 | 1978-12-22 | Serras Paulet Edouard | Dispositif a bouton poussoir de commande de commutation d'un circuit electronique ou electrique |
US4202041A (en) | 1977-07-11 | 1980-05-06 | Massachusetts Institute Of Technology | Dynamically variable keyboard terminal |
CA1103803A (en) | 1978-03-01 | 1981-06-23 | National Research Council Of Canada | Method and apparatus of determining the center of area or centroid of a geometrical area of unspecified shape lying in a larger x-y scan field |
US4246452A (en) | 1979-01-05 | 1981-01-20 | Mattel, Inc. | Switch apparatus |
US4305131A (en) | 1979-02-05 | 1981-12-08 | Best Robert M | Dialog between TV movies and human viewers |
JPS56132505A (en) | 1980-03-24 | 1981-10-16 | Hitachi Ltd | Position detecting method |
US4346376A (en) | 1980-04-16 | 1982-08-24 | Bell Telephone Laboratories, Incorporated | Touch position sensitive surface |
US4305071A (en) | 1980-04-16 | 1981-12-08 | Bell Telephone Laboratories, Incorporated | Touch sensitive screen signal detection arrangement |
US4484179A (en) | 1980-04-16 | 1984-11-20 | At&T Bell Laboratories | Touch position sensitive surface |
US4686374A (en) | 1980-06-26 | 1987-08-11 | Diffracto Ltd. | Surface reflectivity detector with oil mist reflectivity enhancement |
US4375674A (en) | 1980-10-17 | 1983-03-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Kinesimetric method and apparatus |
US4396945A (en) | 1981-08-19 | 1983-08-02 | Solid Photography Inc. | Method of sensing the position and orientation of elements in space |
US4475122A (en) | 1981-11-09 | 1984-10-02 | Tre Semiconductor Equipment Corporation | Automatic wafer alignment technique |
US4542375A (en) | 1982-02-11 | 1985-09-17 | At&T Bell Laboratories | Deformable touch sensitive surface |
US4613942A (en) | 1982-02-19 | 1986-09-23 | Chen Richard M | Orientation and control system for robots |
US4549279A (en) | 1983-01-21 | 1985-10-22 | The Laitram Corporation | Single hand, single finger stroke alphameric data processing keyboard system |
US4631525A (en) | 1983-04-11 | 1986-12-23 | Sony Corporation | Digital fader or like device |
US4631676A (en) | 1983-05-25 | 1986-12-23 | Hospital For Joint Diseases Or | Computerized video gait and motion analysis system and method |
US4644326A (en) | 1983-06-03 | 1987-02-17 | Secure Keyboards Limited | Unitary key panel |
US4654872A (en) | 1983-07-25 | 1987-03-31 | Omron Tateisi Electronics Co. | System for recognizing three-dimensional objects |
JPS6029833A (ja) | 1983-07-28 | 1985-02-15 | Canon Inc | 画像表示装置 |
US4561017A (en) | 1983-08-19 | 1985-12-24 | Richard Greene | Graphic input apparatus |
US4550221A (en) | 1983-10-07 | 1985-10-29 | Scott Mabusth | Touch sensitive control device |
US4733222A (en) | 1983-12-27 | 1988-03-22 | Integrated Touch Arrays, Inc. | Capacitance-variation-sensitive touch sensing array system |
US4629319A (en) | 1984-02-14 | 1986-12-16 | Diffracto Ltd. | Panel surface flaw inspection |
US4672364A (en) | 1984-06-18 | 1987-06-09 | Carroll Touch Inc | Touch input device having power profiling |
US4672558A (en) | 1984-09-25 | 1987-06-09 | Aquila Technologies Group, Inc. | Touch-sensitive data input device |
US4692809A (en) | 1984-11-20 | 1987-09-08 | Hughes Aircraft Company | Integrated touch paint system for displays |
US4695827A (en) | 1984-11-20 | 1987-09-22 | Hughes Aircraft Company | Electromagnetic energy interference seal for light beam touch panels |
US4853888A (en) | 1984-12-31 | 1989-08-01 | The Boeing Company | Programmable multifunction keyboard |
US4644100A (en) | 1985-03-22 | 1987-02-17 | Zenith Electronics Corporation | Surface acoustic wave touch panel system |
US4710760A (en) | 1985-03-07 | 1987-12-01 | American Telephone And Telegraph Company, At&T Information Systems Inc. | Photoelastic touch-sensitive screen |
US4771276A (en) | 1985-04-15 | 1988-09-13 | International Business Machines Corporation | Electromagnetic touch sensor input system in a cathode ray tube display device |
US5017030A (en) | 1986-07-07 | 1991-05-21 | Crews Jay A | Ergonomically designed keyboard |
US4703306A (en) | 1986-09-26 | 1987-10-27 | The Maytag Company | Appliance system |
US4763356A (en) | 1986-12-11 | 1988-08-09 | AT&T Information Systems, Inc. American Telephone and Telegraph Company | Touch screen form entry system |
FR2608753B1 (fr) | 1986-12-18 | 1991-06-07 | Centre Nat Rech Scient | Dispositif de localisation bidimensionnelle d'evenements generateurs de courant sur une surface resistive |
US4787040A (en) | 1986-12-22 | 1988-11-22 | International Business Machines Corporation | Display system for automotive vehicle |
JPS63167923A (ja) | 1987-01-05 | 1988-07-12 | Pfu Ltd | イメ−ジデ−タ入力装置 |
US4746770A (en) | 1987-02-17 | 1988-05-24 | Sensor Frame Incorporated | Method and apparatus for isolating and manipulating graphic objects on computer video monitor |
FR2612326A1 (fr) | 1987-03-13 | 1988-09-16 | Thomson Csf | Procede de reglage des couleurs d'un panneau a plasma polychrome et panneau a plasma utilisant un tel procede |
US4988981B1 (en) | 1987-03-17 | 1999-05-18 | Vpl Newco Inc | Computer data entry and manipulation apparatus and method |
GB2204131B (en) | 1987-04-28 | 1991-04-17 | Ibm | Graphics input tablet |
US4806846A (en) | 1987-07-06 | 1989-02-21 | Kerber George L | High accuracy direct reading capacitance-to-voltage converter |
US4814759A (en) | 1987-07-08 | 1989-03-21 | Clinicom Incorporated | Flat panel display monitor apparatus |
US4772028A (en) | 1987-08-27 | 1988-09-20 | Rockhold Christopher K | Electronic shootout game |
US5153829A (en) | 1987-11-11 | 1992-10-06 | Canon Kabushiki Kaisha | Multifunction musical information processing apparatus |
US4914624A (en) | 1988-05-06 | 1990-04-03 | Dunthorn David I | Virtual button for touch screen |
CH672704B5 (de) | 1988-05-26 | 1990-06-29 | Ebauchesfabrik Eta Ag | |
US5060135A (en) | 1988-09-16 | 1991-10-22 | Wang Laboratories, Inc. | Apparatus for manipulating documents in a data processing system utilizing reduced images of sheets of information which are movable |
US4968877A (en) | 1988-09-14 | 1990-11-06 | Sensor Frame Corporation | VideoHarp |
CA2002912A1 (en) | 1988-11-14 | 1990-05-14 | William A. Clough | Portable computer with touch screen and computer system employing same |
US5045843B1 (en) | 1988-12-06 | 1996-07-16 | Selectech Ltd | Optical pointing device |
US5741990A (en) | 1989-02-17 | 1998-04-21 | Notepool, Ltd. | Method of and means for producing musical note relationships |
US4898555A (en) | 1989-03-23 | 1990-02-06 | Bell & Howell Publication Systems Company | Display screen bezel and assembly method |
JPH0649030Y2 (ja) | 1989-04-05 | 1994-12-12 | パイオニア株式会社 | データ入力装置 |
US5620267A (en) | 1993-10-15 | 1997-04-15 | Keyboard Advancements, Inc. | Keyboard with thumb activated control key |
US4948371A (en) | 1989-04-25 | 1990-08-14 | The United States Of America As Represented By The United States Department Of Energy | System for training and evaluation of security personnel in use of firearms |
US5252951A (en) * | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
US5157384A (en) | 1989-04-28 | 1992-10-20 | International Business Machines Corporation | Advanced user interface |
DK174788B1 (da) | 1989-05-08 | 2003-11-10 | Dainippon Printing Co Ltd | Baglysprojektionsskærm |
US5072294A (en) | 1989-06-07 | 1991-12-10 | Loredan Biomedical, Inc. | Method and apparatus for analyzing a body having a marker located thereon |
US5305017A (en) | 1989-08-16 | 1994-04-19 | Gerpheide George E | Methods and apparatus for data input |
US5189403A (en) | 1989-09-26 | 1993-02-23 | Home Row, Inc. | Integrated keyboard and pointing device system with automatic mode change |
CA2027103A1 (en) | 1989-10-13 | 1991-04-14 | William A. Clough | Method and apparatus for displaying simulated keyboards on touch-sensitive displays |
JP2622620B2 (ja) | 1989-11-07 | 1997-06-18 | プロクシマ コーポレイション | コンピュータにより発生されたデイスプレイ可視像を変更するためのコンピュータ入力システム |
JP2854359B2 (ja) | 1990-01-24 | 1999-02-03 | 富士通株式会社 | 画像処理システム |
US5241308A (en) | 1990-02-22 | 1993-08-31 | Paragon Systems, Inc. | Force sensitive touch panel |
US5581243A (en) | 1990-06-04 | 1996-12-03 | Microslate Inc. | Method and apparatus for displaying simulated keyboards on touch-sensitive displays |
US5097425A (en) | 1990-06-11 | 1992-03-17 | Semantic Compaction Systems | Predictive scanning input system for rapid selection of visual indicators |
JP3301079B2 (ja) | 1990-06-18 | 2002-07-15 | ソニー株式会社 | 情報入力装置、情報入力方法、情報処理装置及び情報処理方法 |
JPH0454523A (ja) | 1990-06-21 | 1992-02-21 | Hitachi Aic Inc | タッチパネル |
GB2245708A (en) | 1990-06-29 | 1992-01-08 | Philips Electronic Associated | Touch sensor array systems |
CA2087523C (en) | 1990-07-17 | 1997-04-15 | Mark Andrew Shackleton | Method of processing an image |
GB9019538D0 (en) | 1990-09-07 | 1990-10-24 | Philips Electronic Associated | Tracking a moving object |
US5119079A (en) | 1990-09-17 | 1992-06-02 | Xerox Corporation | Touch screen user interface with expanding touch locations for a reprographic machine |
US5224861A (en) | 1990-09-17 | 1993-07-06 | Hughes Aircraft Company | Training device onboard instruction station |
US5347295A (en) | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5148155A (en) | 1990-11-13 | 1992-09-15 | Wang Laboratories, Inc. | Computer with tablet input to standard programs |
US5260697A (en) | 1990-11-13 | 1993-11-09 | Wang Laboratories, Inc. | Computer with separate display plane and user interface processor |
US5442742A (en) | 1990-12-21 | 1995-08-15 | Apple Computer, Inc. | Method and apparatus for the manipulation of text on a computer display screen |
KR100318330B1 (ko) | 1991-04-08 | 2002-04-22 | 가나이 쓰도무 | 감시장치 |
US5689253A (en) | 1991-04-10 | 1997-11-18 | Kinesis Corporation | Ergonomic keyboard apparatus |
US5898434A (en) | 1991-05-15 | 1999-04-27 | Apple Computer, Inc. | User interface system having programmable user interface elements |
US5548667A (en) | 1991-05-24 | 1996-08-20 | Sony Corporation | Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data |
US5178477A (en) | 1991-06-06 | 1993-01-12 | Gambaro Thomas L | Ergonomic keyboard input device |
US5168531A (en) | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
WO1993000629A1 (en) | 1991-06-28 | 1993-01-07 | Infogrip, Inc. | Chordic keyboard system |
US5666113A (en) | 1991-07-31 | 1997-09-09 | Microtouch Systems, Inc. | System for using a touchpad input device for cursor control and keyboard emulation |
US5227985A (en) | 1991-08-19 | 1993-07-13 | University Of Maryland | Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object |
JP2827612B2 (ja) | 1991-10-07 | 1998-11-25 | 富士通株式会社 | タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。 |
US5335557A (en) | 1991-11-26 | 1994-08-09 | Taizo Yasutake | Touch sensitive input control device |
US5963671A (en) | 1991-11-27 | 1999-10-05 | International Business Machines Corporation | Enhancement of soft keyboard operations using trigram prediction |
CA2078607A1 (en) | 1991-12-13 | 1993-06-14 | Thomas H. Speeter | Intelligent work surfaces |
US5212555A (en) | 1991-12-17 | 1993-05-18 | Texas Instruments Incorporated | Image capture with spatial light modulator and single-cell photosensor |
JPH0619663A (ja) | 1991-12-27 | 1994-01-28 | Nippon Telegr & Teleph Corp <Ntt> | マルチウィンドウの自動操作方法 |
US5281966A (en) | 1992-01-31 | 1994-01-25 | Walsh A Peter | Method of encoding alphabetic characters for a chord keyboard |
EP0554492B1 (de) | 1992-02-07 | 1995-08-09 | International Business Machines Corporation | Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
EP0563477A1 (de) | 1992-03-25 | 1993-10-06 | Visage Inc. | Berührungsbilschirm-Sensorvorrichtung |
US5495269A (en) | 1992-04-03 | 1996-02-27 | Xerox Corporation | Large area electronic writing system |
US5347629A (en) | 1992-04-07 | 1994-09-13 | International Business Machines Corporation | Graphical user interface including updating of multiple panels using what you see is what you get (WYSIWYG) editor |
US5398310A (en) | 1992-04-13 | 1995-03-14 | Apple Computer, Incorporated | Pointing gesture based computer note pad paging and scrolling interface |
US5563996A (en) | 1992-04-13 | 1996-10-08 | Apple Computer, Inc. | Computer note pad including gesture based note division tools and method |
JPH05297979A (ja) | 1992-04-20 | 1993-11-12 | Matsushita Electric Ind Co Ltd | 膝乗せ型計算機 |
US5523775A (en) | 1992-05-26 | 1996-06-04 | Apple Computer, Inc. | Method for selecting objects on a computer display |
US5463696A (en) | 1992-05-27 | 1995-10-31 | Apple Computer, Inc. | Recognition system and method for user inputs to a computer system |
US5452371A (en) | 1992-05-27 | 1995-09-19 | Apple Computer, Inc. | Method of aligning shapes on a display of a computer system |
US5710844A (en) | 1992-05-27 | 1998-01-20 | Apple Computer | Method for searching and displaying results in a pen-based computer system |
US5544295A (en) | 1992-05-27 | 1996-08-06 | Apple Computer, Inc. | Method and apparatus for indicating a change in status of an object and its disposition using animation |
US5764818A (en) | 1992-05-27 | 1998-06-09 | Apple Computer, Inc. | Method for locating and displaying information in a pointer-based computer system |
US5592566A (en) | 1992-05-27 | 1997-01-07 | Apple Computer, Incorporated | Method and apparatus for computerized recognition |
US5543590A (en) | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Object position detector with edge motion feature |
DE69324067T2 (de) | 1992-06-08 | 1999-07-15 | Synaptics Inc | Objekt-Positionsdetektor |
US5488204A (en) | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
US5543591A (en) | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5880411A (en) | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US6028271A (en) | 1992-06-08 | 2000-02-22 | Synaptics, Inc. | Object position detector with edge motion feature and gesture recognition |
US5565658A (en) | 1992-07-13 | 1996-10-15 | Cirque Corporation | Capacitance-based proximity with interference rejection apparatus and methods |
US5328190A (en) | 1992-08-04 | 1994-07-12 | Dart International, Inc. | Method and apparatus enabling archery practice |
US5319386A (en) | 1992-08-04 | 1994-06-07 | Gunn Gary J | Ideographic character selection method and apparatus |
US5418760A (en) | 1992-08-18 | 1995-05-23 | Casio Computer Co., Ltd. | Electronic devices with a liquid crystal display |
US5821930A (en) | 1992-08-23 | 1998-10-13 | U S West, Inc. | Method and system for generating a working window in a computer system |
JP3268467B2 (ja) | 1992-09-08 | 2002-03-25 | 株式会社日立製作所 | 電話機 |
US6008800A (en) | 1992-09-18 | 1999-12-28 | Pryor; Timothy R. | Man machine interfaces for entering data into a computer |
US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US5982352A (en) | 1992-09-18 | 1999-11-09 | Pryor; Timothy R. | Method for providing human input to a computer |
US7098891B1 (en) | 1992-09-18 | 2006-08-29 | Pryor Timothy R | Method for providing human input to a computer |
US5345543A (en) | 1992-11-16 | 1994-09-06 | Apple Computer, Inc. | Method for manipulating objects on a computer display |
JP3469912B2 (ja) | 1992-11-18 | 2003-11-25 | 株式会社デジタル | 複数の同時入力が可能なタッチパネル入力装置及び入力方法 |
US5363051A (en) | 1992-11-23 | 1994-11-08 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Steering capaciflector sensor |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US5412189A (en) | 1992-12-21 | 1995-05-02 | International Business Machines Corporation | Touch screen apparatus with tactile information |
US5568604A (en) | 1992-12-31 | 1996-10-22 | U S West Technologies, Inc. | Method and system for generating a working window in a computer system |
US5463725A (en) | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
US5513309A (en) | 1993-01-05 | 1996-04-30 | Apple Computer, Inc. | Graphic editor user interface for a pointer-based computer system |
US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
US5463388A (en) | 1993-01-29 | 1995-10-31 | At&T Ipm Corp. | Computer mouse or keyboard input device utilizing capacitive sensors |
JP2986047B2 (ja) | 1993-04-29 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | ディジタル入力用表示装置並びに入力処理装置および方法 |
DE69430967T2 (de) | 1993-04-30 | 2002-11-07 | Xerox Corp | Interaktives Kopiersystem |
US5563632A (en) | 1993-04-30 | 1996-10-08 | Microtouch Systems, Inc. | Method of and apparatus for the elimination of the effects of internal interference in force measurement systems, including touch - input computer and related displays employing touch force location measurement techniques |
US5677710A (en) | 1993-05-10 | 1997-10-14 | Apple Computer, Inc. | Recognition keypad |
US5808567A (en) | 1993-05-17 | 1998-09-15 | Dsi Datotech Systems, Inc. | Apparatus and method of communicating using three digits of a hand |
EP0626635B1 (de) | 1993-05-24 | 2003-03-05 | Sun Microsystems, Inc. | Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen |
WO1994029788A1 (en) | 1993-06-15 | 1994-12-22 | Honeywell Inc. | A method for utilizing a low resolution touch screen system in a high resolution graphics environment |
US5367453A (en) | 1993-08-02 | 1994-11-22 | Apple Computer, Inc. | Method and apparatus for correcting words |
GB9317932D0 (en) | 1993-08-26 | 1993-10-13 | Cambridge Display Tech Ltd | Electroluminescent devices |
JPH07230352A (ja) | 1993-09-16 | 1995-08-29 | Hitachi Ltd | タッチ位置検出装置及びタッチ指示処理装置 |
US5583946A (en) | 1993-09-30 | 1996-12-10 | Apple Computer, Inc. | Method and apparatus for recognizing gestures on a computer system |
US5510806A (en) | 1993-10-28 | 1996-04-23 | Dell Usa, L.P. | Portable computer having an LCD projection display system |
US5422656A (en) | 1993-11-01 | 1995-06-06 | International Business Machines Corp. | Personal communicator having improved contrast control for a liquid crystal, touch sensitive display |
US6243071B1 (en) | 1993-11-03 | 2001-06-05 | Apple Computer, Inc. | Tool set for navigating through an electronic book |
US5982355A (en) | 1993-11-05 | 1999-11-09 | Jaeger; Denny | Multiple purpose controls for electrical systems |
JPH07129312A (ja) | 1993-11-05 | 1995-05-19 | Oki Electric Ind Co Ltd | 画像処理装置 |
US5805146A (en) | 1993-11-05 | 1998-09-08 | Intertactile Technologies Corporation | Integrated display screen and slidable control for electrical circuits |
US5841428A (en) | 1993-11-05 | 1998-11-24 | Intertactile Technologies Corporation | Rotary circuit control devices with changeable graphics |
US5805145A (en) | 1993-11-05 | 1998-09-08 | Intertactile Technologies Corporation | Circuit control panel displaying changeable graphics |
US5936613A (en) | 1993-11-05 | 1999-08-10 | Intertactile Technologies Corporation | Rotary circuit control devices with changeable graphics |
US5777603A (en) | 1993-11-05 | 1998-07-07 | Intertactile Technologies Corporation | Flat panel display with optical signal transparent zone |
EP0727082A4 (de) | 1993-11-05 | 2000-11-15 | Intertactile Tech Corp | Bedienerschnittstelle mit eingebautem anzeigeschirm |
US5530456A (en) | 1993-12-09 | 1996-06-25 | Nec Corporation | Position information input method and device |
JP3546337B2 (ja) | 1993-12-21 | 2004-07-28 | ゼロックス コーポレイション | 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法 |
US5471578A (en) | 1993-12-30 | 1995-11-28 | Xerox Corporation | Apparatus and method for altering enclosure selections in a gesture based input system |
DE69426919T2 (de) | 1993-12-30 | 2001-06-28 | Xerox Corp | Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle |
DE69428675T2 (de) | 1993-12-30 | 2002-05-08 | Xerox Corp | Apparat und Verfahren zur Unterstützung einer impliziten Strukturation von Freiform-Listen, Übersichten, Texten, Tabellen und Diagrammen in einem auf Handzeichen basierenden Eingabesystem und Editiersystem |
US5572573A (en) | 1994-01-25 | 1996-11-05 | U S West Advanced Technologies, Inc. | Removable user interface for use with interactive electronic devices |
WO1995020787A1 (en) | 1994-01-27 | 1995-08-03 | Exos, Inc. | Multimode feedback display technology |
US5982302A (en) | 1994-03-07 | 1999-11-09 | Ure; Michael J. | Touch-sensitive keyboard/mouse |
GB9406702D0 (en) | 1994-04-05 | 1994-05-25 | Binstead Ronald P | Multiple input proximity detector and touchpad system |
JPH07275511A (ja) | 1994-04-06 | 1995-10-24 | Sega Enterp Ltd | シューティングゲームシステムのアトラクション展開方法 |
US5579036A (en) | 1994-04-28 | 1996-11-26 | At&T Global Information Solutions Company | Touch screen device and shielding bracket therefor |
AU2586595A (en) | 1994-05-12 | 1995-12-05 | Apple Computer, Inc. | Method and apparatus for noise filtering for an input device |
KR0155210B1 (ko) * | 1994-06-13 | 1998-11-16 | 가네꼬 히사시 | Mos 4상한 멀티플라이어 |
US5570113A (en) | 1994-06-29 | 1996-10-29 | International Business Machines Corporation | Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system |
DE4423005C1 (de) | 1994-06-30 | 1995-11-30 | Siemens Ag | Eingabevorrichtung für einen Computer |
US5530455A (en) | 1994-08-10 | 1996-06-25 | Mouse Systems Corporation | Roller mouse for implementing scrolling in windows applications |
US7489303B1 (en) | 2001-02-22 | 2009-02-10 | Pryor Timothy R | Reconfigurable instrument panels |
US9513744B2 (en) | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
US5559301A (en) | 1994-09-15 | 1996-09-24 | Korg, Inc. | Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems |
US5649706A (en) | 1994-09-21 | 1997-07-22 | Treat, Jr.; Erwin C. | Simulator and practice method |
DE69524340T2 (de) | 1994-09-22 | 2002-08-14 | Aisin Aw Co | Berührungsanzeige für ein Informationseingabesystem |
WO1996009579A1 (en) | 1994-09-22 | 1996-03-28 | Izak Van Cruyningen | Popup menus with directional gestures |
US5572647A (en) | 1994-11-04 | 1996-11-05 | International Business Machines Corporation | Visibility seeking scroll bars and other control constructs |
US5745719A (en) | 1995-01-19 | 1998-04-28 | Falcon; Fernando D. | Commands functions invoked from movement of a control input device |
US5736976A (en) | 1995-02-13 | 1998-04-07 | Cheung; Nina T. | Computer data entry apparatus with hand motion sensing and monitoring |
US5565888A (en) | 1995-02-17 | 1996-10-15 | International Business Machines Corporation | Method and apparatus for improving visibility and selectability of icons |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US5838302A (en) | 1995-02-24 | 1998-11-17 | Casio Computer Co., Ltd. | Data inputting devices for inputting typed and handwritten data in a mixed manner |
US5748512A (en) | 1995-02-28 | 1998-05-05 | Microsoft Corporation | Adjusting keyboard |
US5618232A (en) | 1995-03-23 | 1997-04-08 | Martin; John R. | Dual mode gaming device methods and systems |
US5900876A (en) | 1995-04-14 | 1999-05-04 | Canon Kabushiki Kaisha | Information processing apparatus and method with display book page turning |
US5591945A (en) | 1995-04-19 | 1997-01-07 | Elo Touchsystems, Inc. | Acoustic touch position sensor using higher order horizontally polarized shear wave propagation |
US5729250A (en) | 1995-05-08 | 1998-03-17 | International Business Machines Corporation | Front cover assembly for a touch sensitive device |
US6255604B1 (en) | 1995-05-31 | 2001-07-03 | Canon Kabushiki Kaisha | Coordinate detecting device for outputting coordinate data when two points are simultaneously depressed, method therefor and computer control device |
US5689667A (en) | 1995-06-06 | 1997-11-18 | Silicon Graphics, Inc. | Methods and system of controlling menus with radial and linear portions |
US5790107A (en) | 1995-06-07 | 1998-08-04 | Logitech, Inc. | Touch sensing method and apparatus |
US5798760A (en) | 1995-06-07 | 1998-08-25 | Vayda; Mark | Radial graphical menuing system with concentric region menuing |
US5502514A (en) | 1995-06-07 | 1996-03-26 | Nview Corporation | Stylus position sensing and digital camera with a digital micromirror device |
US6031524A (en) | 1995-06-07 | 2000-02-29 | Intermec Ip Corp. | Hand-held portable data terminal having removably interchangeable, washable, user-replaceable components with liquid-impervious seal |
US5831601A (en) | 1995-06-07 | 1998-11-03 | Nview Corporation | Stylus position sensing and digital camera with a digital micromirror device |
US8228305B2 (en) | 1995-06-29 | 2012-07-24 | Apple Inc. | Method for providing human input to a computer |
US20090322499A1 (en) | 1995-06-29 | 2009-12-31 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
JP3610635B2 (ja) | 1995-07-18 | 2005-01-19 | マツダ株式会社 | 車載機器の操作用表示装置 |
JPH0935584A (ja) | 1995-07-21 | 1997-02-07 | Yazaki Corp | 車両用表示装置 |
US5999895A (en) | 1995-07-24 | 1999-12-07 | Forest; Donald K. | Sound operated menu method and apparatus |
US6005549A (en) | 1995-07-24 | 1999-12-21 | Forest; Donald K. | User interface method and apparatus |
US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
US5634102A (en) | 1995-08-07 | 1997-05-27 | Apple Computer, Inc. | Methods and apparatus for a selectable backdrop |
US5745716A (en) | 1995-08-07 | 1998-04-28 | Apple Computer, Inc. | Method and apparatus for tab access and tab cycling in a pen-based computer system |
US5666502A (en) | 1995-08-07 | 1997-09-09 | Apple Computer, Inc. | Graphical user interface using historical lists with field classes |
US5867149A (en) | 1995-08-14 | 1999-02-02 | Intertactile Technologies Corporation | Switch key image display and operator/circuit interface |
US5675361A (en) | 1995-08-23 | 1997-10-07 | Santilli; Donald S. | Computer keyboard pointing device |
US5746818A (en) | 1995-08-31 | 1998-05-05 | Seiko Epson Corporation | Pigment ink composition capable of forming image having no significant bleeding or feathering |
US6481851B1 (en) | 1995-09-20 | 2002-11-19 | Videotronic Systems | Adjustable contrast reflected display system |
US5631805A (en) | 1995-09-27 | 1997-05-20 | Dynapro Systems, Inc. | Touch screen enclosure having an insertable graphic sheet |
US5636101A (en) | 1995-09-27 | 1997-06-03 | Dynapro Systems, Inc. | Touch screen enclosure system having touch screen pan and hinged rear enclosure section for ease of serviceability |
US6049328A (en) | 1995-10-20 | 2000-04-11 | Wisconsin Alumni Research Foundation | Flexible access system for touch screen devices |
US5801941A (en) | 1996-08-12 | 1998-09-01 | International Business Machines Corporation | Mobile client computer programmed to establish soft keyboard targeting sensitivity |
JP3727399B2 (ja) | 1996-02-19 | 2005-12-14 | ミサワホーム株式会社 | 画面表示式キー入力装置 |
JPH09146708A (ja) | 1995-11-09 | 1997-06-06 | Internatl Business Mach Corp <Ibm> | タッチパネルの駆動方法及びタッチ入力方法 |
US5767457A (en) | 1995-11-13 | 1998-06-16 | Cirque Corporation | Apparatus and method for audible feedback from input device |
US6473069B1 (en) | 1995-11-13 | 2002-10-29 | Cirque Corporation | Apparatus and method for tactile feedback from input device |
EP0861485A1 (de) | 1995-11-16 | 1998-09-02 | Michael J. Ure | Mehrtasteingangsvorrichtung und verfahren und system zur minimierung des speicherbedarfs |
US6107997A (en) | 1996-06-27 | 2000-08-22 | Ure; Michael J. | Touch-sensitive keyboard/mouse and computing device using the same |
US5825308A (en) | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
SE504758C2 (sv) | 1995-12-21 | 1997-04-21 | Siemens Elema Ab | Apparatpanel |
US5730165A (en) | 1995-12-26 | 1998-03-24 | Philipp; Harald | Time domain capacitive field detector |
US5823782A (en) | 1995-12-29 | 1998-10-20 | Tinkers & Chance | Character recognition educational system |
US5825352A (en) | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
US5920309A (en) | 1996-01-04 | 1999-07-06 | Logitech, Inc. | Touch sensing method and apparatus |
US5736975A (en) | 1996-02-02 | 1998-04-07 | Interactive Sales System | Interactive video display |
US5871251A (en) | 1996-03-14 | 1999-02-16 | Prince Corporation | Visor display |
AU2808697A (en) | 1996-04-24 | 1997-11-12 | Logitech, Inc. | Touch and pressure sensing method and apparatus |
GB9608747D0 (en) | 1996-04-26 | 1996-07-03 | Philips Electronics Nv | Fingerprint sensing devices and systems incorporating such |
US5764222A (en) | 1996-05-28 | 1998-06-09 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5874948A (en) | 1996-05-28 | 1999-02-23 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5748184A (en) | 1996-05-28 | 1998-05-05 | International Business Machines Corporation | Virtual pointing device for touchscreens |
JP4484255B2 (ja) | 1996-06-11 | 2010-06-16 | 株式会社日立製作所 | タッチパネルを備えた情報処理装置および情報処理方法 |
US5956822A (en) | 1996-06-12 | 1999-09-28 | Knecht Filterwerke Gmbh | Snap-lock connection for two parts which can rotate in relation to each other |
US5808605A (en) | 1996-06-13 | 1998-09-15 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5835079A (en) | 1996-06-13 | 1998-11-10 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5790104A (en) | 1996-06-25 | 1998-08-04 | International Business Machines Corporation | Multiple, moveable, customizable virtual pointing devices |
GB9613315D0 (en) | 1996-06-25 | 1996-08-28 | Philips Electronics Nv | Virtual environment interaction and navigation device |
US5933134A (en) | 1996-06-25 | 1999-08-03 | International Business Machines Corporation | Touch screen virtual pointing device which goes into a translucent hibernation state when not in use |
US5856824A (en) | 1996-06-25 | 1999-01-05 | International Business Machines Corp. | Reshapable pointing device for touchscreens |
US6054990A (en) | 1996-07-05 | 2000-04-25 | Tran; Bao Q. | Computer system with handwriting annotation |
JPH1039748A (ja) | 1996-07-18 | 1998-02-13 | Koonet:Kk | 電子式地図システム、それを用いた情報提供装置及び記憶媒体 |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6288707B1 (en) | 1996-07-29 | 2001-09-11 | Harald Philipp | Capacitive position sensor |
KR100260760B1 (ko) | 1996-07-31 | 2000-07-01 | 모리 하루오 | 터치패널을 병설한 정보표시장치 |
US5943044A (en) | 1996-08-05 | 1999-08-24 | Interlink Electronics | Force sensing semiconductive touchpad |
US5818451A (en) | 1996-08-12 | 1998-10-06 | International Busienss Machines Corporation | Computer programmed soft keyboard system, method and apparatus having user input displacement |
US6208329B1 (en) | 1996-08-13 | 2001-03-27 | Lsi Logic Corporation | Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device |
US5745116A (en) | 1996-09-09 | 1998-04-28 | Motorola, Inc. | Intuitive gesture-based graphical user interface |
US6308144B1 (en) | 1996-09-26 | 2001-10-23 | Computervision Corporation | Method and apparatus for providing three-dimensional model associativity |
GB9620464D0 (en) | 1996-10-01 | 1996-11-20 | Philips Electronics Nv | Hand held image display device |
US6650319B1 (en) | 1996-10-29 | 2003-11-18 | Elo Touchsystems, Inc. | Touch screen based topological mapping with resistance framing design |
US5854625A (en) | 1996-11-06 | 1998-12-29 | Synaptics, Incorporated | Force sensing touchpad |
US5870091A (en) | 1996-11-07 | 1999-02-09 | Adobe Systems Incorporated | Combining palettes on a computer display |
US5883619A (en) | 1996-11-12 | 1999-03-16 | Primax Electronics Ltd. | Computer mouse for scrolling a view of an image |
US6031469A (en) | 1996-11-12 | 2000-02-29 | Dodd; Jerry | Ergonomic computer keyboard |
US5748269A (en) | 1996-11-21 | 1998-05-05 | Westinghouse Air Brake Company | Environmentally-sealed, convectively-cooled active matrix liquid crystal display (LCD) |
US6154201A (en) | 1996-11-26 | 2000-11-28 | Immersion Corporation | Control knob with multiple degrees of freedom and force feedback |
JPH10171583A (ja) | 1996-12-05 | 1998-06-26 | Wacom Co Ltd | 位置検出装置およびその位置指示器 |
JPH10171600A (ja) | 1996-12-06 | 1998-06-26 | Brother Ind Ltd | 入力装置 |
US6061177A (en) | 1996-12-19 | 2000-05-09 | Fujimoto; Kenneth Noboru | Integrated computer display and graphical input apparatus and method |
DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europ Ltd | Verfahren und System zur Erkennung von Handgesten |
US6278441B1 (en) | 1997-01-09 | 2001-08-21 | Virtouch, Ltd. | Tactile interface system for electronic data display system |
US5850218A (en) | 1997-02-19 | 1998-12-15 | Time Warner Entertainment Company L.P. | Inter-active program guide with default selection control |
JPH10232734A (ja) | 1997-02-20 | 1998-09-02 | Sharp Corp | 仮想キーボード |
US6105419A (en) | 1997-03-25 | 2000-08-22 | Recot, Inc. | Apparatus and process for inspecting sealed packages |
EP1016066A4 (de) | 1997-03-31 | 2001-06-13 | G & R Associates Inc | Computertelefonintegration unterverwendung einer intelligenten tastatur und verfahren hierfür |
US5943053A (en) | 1997-04-01 | 1999-08-24 | Sun Microsystems, Inc. | Method and apparatus for expanding and contracting a window panel |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US6049326A (en) | 1997-05-12 | 2000-04-11 | Siemens Information And Communication Networks, Inc. | System and method for dual browser modes |
US5949345A (en) | 1997-05-27 | 1999-09-07 | Microsoft Corporation | Displaying computer information to a driver of a vehicle |
US6054984A (en) | 1997-05-27 | 2000-04-25 | Hewlett-Packard Company | System and method for graphically manipulating display elements in a signal measurement system |
US6803905B1 (en) | 1997-05-30 | 2004-10-12 | International Business Machines Corporation | Touch sensitive apparatus and method for improved visual feedback |
US6289326B1 (en) | 1997-06-04 | 2001-09-11 | Lafleur Bernard B. | Portable interactive kiosk |
US5910800A (en) | 1997-06-11 | 1999-06-08 | Microsoft Corporation | Usage tips for on-screen touch-sensitive controls |
CH691711A5 (fr) | 1997-06-11 | 2001-09-14 | Asulab Sa | Montre avec lecture et réglage tactiles des fonctions horométriques. |
JP3968477B2 (ja) | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US7002749B2 (en) | 1997-07-08 | 2006-02-21 | Kremen Stanley H | Modular integral magnifier |
US5974541A (en) | 1997-07-22 | 1999-10-26 | National Instruments Corporation | GPIB system and method which provides asynchronous event notification |
JPH1153093A (ja) | 1997-08-04 | 1999-02-26 | Hitachi Ltd | 入力装置 |
US5943052A (en) | 1997-08-12 | 1999-08-24 | Synaptics, Incorporated | Method and apparatus for scroll bar control |
JP3000972B2 (ja) | 1997-08-18 | 2000-01-17 | 日本電気株式会社 | 情報提供装置及びプログラムを記録した機械読み取り可能な記録媒体 |
US6920619B1 (en) | 1997-08-28 | 2005-07-19 | Slavoljub Milekic | User interface for removing an object from a display |
JPH1173271A (ja) | 1997-08-28 | 1999-03-16 | Sharp Corp | 指示装置、処理装置および記憶媒体 |
JPH1178369A (ja) | 1997-09-03 | 1999-03-23 | Plus Kogyo Kk | 表示システム |
JPH1185380A (ja) | 1997-09-10 | 1999-03-30 | Seiko Denshi Kiki Kk | 座標読取装置、そのインタフェース装置及び座標読取システム |
US6104384A (en) | 1997-09-12 | 2000-08-15 | Ericsson, Inc. | Image based keyboard for a small computing device |
US6433801B1 (en) | 1997-09-26 | 2002-08-13 | Ericsson Inc. | Method and apparatus for using a touch screen display on a portable intelligent communications device |
US6084576A (en) | 1997-09-27 | 2000-07-04 | Leu; Neng-Chyang | User friendly keyboard |
US6037882A (en) | 1997-09-30 | 2000-03-14 | Levy; David H. | Method and apparatus for inputting data to an electronic system |
JPH11119911A (ja) | 1997-10-15 | 1999-04-30 | Fujitsu Ten Ltd | スイッチ装置 |
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
GB2330750B (en) | 1997-10-24 | 2002-09-04 | Sony Uk Ltd | Audio processing |
GB2330670B (en) | 1997-10-24 | 2002-09-11 | Sony Uk Ltd | Data processing |
GB2330752B (en) | 1997-10-24 | 2002-09-04 | Sony Uk Ltd | Audio processing |
JPH11133816A (ja) | 1997-10-27 | 1999-05-21 | Canon Inc | 画像形成装置、設定情報入力方法および記憶媒体 |
US5995101A (en) | 1997-10-29 | 1999-11-30 | Adobe Systems Incorporated | Multi-level tool tip |
JP3794180B2 (ja) | 1997-11-11 | 2006-07-05 | セイコーエプソン株式会社 | 座標入力システム及び座標入力装置 |
US6057845A (en) | 1997-11-14 | 2000-05-02 | Sensiva, Inc. | System, method, and apparatus for generation and recognizing universal commands |
SE510949C2 (sv) | 1997-11-25 | 1999-07-12 | Saab Automobile | Kontrollpanel |
SE9704330D0 (sv) | 1997-11-25 | 1997-11-25 | Siemens Elema Ab | Apparatpanel |
US6400379B1 (en) | 1997-11-25 | 2002-06-04 | Pioneer Digital Technologies, Inc. | Method and apparatus for selectively displaying additional information relating to broadcast information |
FI104928B (fi) | 1997-11-27 | 2000-04-28 | Nokia Mobile Phones Ltd | Langaton viestin ja menetelmä langattoman viestimen valmistuksessa |
US6310610B1 (en) | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
US6037937A (en) | 1997-12-04 | 2000-03-14 | Nortel Networks Corporation | Navigation tool for graphical user interface |
GB2332293A (en) | 1997-12-11 | 1999-06-16 | British Telecomm | An Input Device |
US6075531A (en) | 1997-12-15 | 2000-06-13 | International Business Machines Corporation | Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer |
JPH11184669A (ja) | 1997-12-24 | 1999-07-09 | Sharp Corp | 情報処理装置及び情報処理方法並びに情報処理装置制御プログラムを記憶した媒体 |
US6757001B2 (en) | 1999-03-30 | 2004-06-29 | Research Investment Network, Inc. | Method of using physical buttons in association with a display to access and execute functions available through associated hardware and software |
US5933141A (en) | 1998-01-05 | 1999-08-03 | Gateway 2000, Inc. | Mutatably transparent displays |
JPH11194863A (ja) | 1998-01-06 | 1999-07-21 | Poseidon Technical Systems:Kk | タッチ入力検知方法及びタッチ入力検知装置 |
KR100595920B1 (ko) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
US7840912B2 (en) | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
US7844914B2 (en) | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US20060033724A1 (en) | 2004-07-30 | 2006-02-16 | Apple Computer, Inc. | Virtual input device placement on a touch screen user interface |
US7800592B2 (en) | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US20070177804A1 (en) | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US7760187B2 (en) | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
JP2938420B2 (ja) | 1998-01-30 | 1999-08-23 | インターナショナル・ビジネス・マシーンズ・コーポレイション | ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体 |
US6175610B1 (en) | 1998-02-11 | 2001-01-16 | Siemens Aktiengesellschaft | Medical technical system controlled by vision-detected operator activity |
US6249606B1 (en) | 1998-02-19 | 2001-06-19 | Mindmaker, Inc. | Method and system for gesture category recognition and training using a feature vector |
US6013956A (en) | 1998-02-23 | 2000-01-11 | Cooper Automotive Products, Inc. | Touch control switches for vehicles |
US6380853B1 (en) | 1998-02-23 | 2002-04-30 | Marconi Commerce Systems Inc. | Customer-sensitive dispenser using proximity sensing devices |
US6639577B2 (en) | 1998-03-04 | 2003-10-28 | Gemstar-Tv Guide International, Inc. | Portable information display device with ergonomic bezel |
US6198515B1 (en) | 1998-03-16 | 2001-03-06 | Joseph W. Cole | Apparatus and method for controlled sealing between bezel and CRT |
US6130665A (en) | 1998-04-01 | 2000-10-10 | Telefonaktiebolaget Lm Ericsson | Touch screen handling |
US6313853B1 (en) | 1998-04-16 | 2001-11-06 | Nortel Networks Limited | Multi-service user interface |
US6211856B1 (en) | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
US5956291A (en) | 1998-04-17 | 1999-09-21 | Ductech, Llc | Underwater diving assistant apparatus |
US6278443B1 (en) | 1998-04-30 | 2001-08-21 | International Business Machines Corporation | Touch screen with random finger placement and rolling on screen to control the movement of information on-screen |
US6057540A (en) | 1998-04-30 | 2000-05-02 | Hewlett-Packard Co | Mouseless optical and position translation type screen pointer control for a computer system |
US6050825A (en) | 1998-05-08 | 2000-04-18 | Nichol; Claudia D. | Opaque, one-size-fits-all computer keyboard cover which covers only the three or four alpha-numeric rows |
US6473102B1 (en) | 1998-05-11 | 2002-10-29 | Apple Computer, Inc. | Method and system for automatically resizing and repositioning windows in response to changes in display |
KR100327209B1 (ko) | 1998-05-12 | 2002-04-17 | 윤종용 | 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법 |
US5977867A (en) | 1998-05-29 | 1999-11-02 | Nortel Networks Corporation | Touch pad panel with tactile feedback |
JP4033582B2 (ja) | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
JP2000010705A (ja) | 1998-06-17 | 2000-01-14 | Nec Corp | 出力イメージ変形方式および出力イメージ変形用プログラムを記録した記録媒体 |
JP3792920B2 (ja) | 1998-12-25 | 2006-07-05 | 株式会社東海理化電機製作所 | タッチ操作入力装置 |
US6429846B2 (en) | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US6347290B1 (en) | 1998-06-24 | 2002-02-12 | Compaq Information Technologies Group, L.P. | Apparatus and method for detecting and executing positional and gesture commands corresponding to movement of handheld computing device |
JP3420504B2 (ja) | 1998-06-30 | 2003-06-23 | キヤノン株式会社 | 情報処理方法 |
US6131299A (en) | 1998-07-01 | 2000-10-17 | Faro Technologies, Inc. | Display device for a coordinate measurement machine |
US6188391B1 (en) | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
US7831930B2 (en) | 2001-11-20 | 2010-11-09 | Universal Electronics Inc. | System and method for displaying a user interface for a remote control application |
US6135958A (en) | 1998-08-06 | 2000-10-24 | Acuson Corporation | Ultrasound imaging system with touch-pad pointing device |
US6169538B1 (en) | 1998-08-13 | 2001-01-02 | Motorola, Inc. | Method and apparatus for implementing a graphical user interface keyboard and a text buffer on electronic devices |
US7079114B1 (en) | 1998-08-21 | 2006-07-18 | Peter Smith | Interactive methods for design of automobiles |
US6326956B1 (en) | 1998-08-24 | 2001-12-04 | Intertactile Technologies Corporation | Circuit control devices utilizing electronic display screen light |
US6359572B1 (en) | 1998-09-03 | 2002-03-19 | Microsoft Corporation | Dynamic keyboard |
US6271835B1 (en) | 1998-09-03 | 2001-08-07 | Nortel Networks Limited | Touch-screen input device |
ATE391329T1 (de) | 1998-09-04 | 2008-04-15 | Innovative Solutions & Support | Flachbildschirm mit zwei cpu's für flugzeugcockpit |
US7256770B2 (en) | 1998-09-14 | 2007-08-14 | Microsoft Corporation | Method for displaying information responsive to sensing a physical presence proximate to a computer input device |
US6333753B1 (en) | 1998-09-14 | 2001-12-25 | Microsoft Corporation | Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device |
US20020018051A1 (en) | 1998-09-15 | 2002-02-14 | Mona Singh | Apparatus and method for moving objects on a touchscreen display |
US6501515B1 (en) | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6292178B1 (en) | 1998-10-19 | 2001-09-18 | Allergan Sales, Inc. | Screen navigation control apparatus for ophthalmic surgical instruments |
JP2000132305A (ja) | 1998-10-23 | 2000-05-12 | Olympus Optical Co Ltd | 操作入力装置 |
US6229502B1 (en) | 1998-11-03 | 2001-05-08 | Cylark Development Llc | Electronic book |
US6874023B1 (en) | 1998-11-10 | 2005-03-29 | Claria Corporation | Web based email control center for monitoring and providing a sumary of the detected event information organized according to relationships between the user and network sites |
JP2000163444A (ja) | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
US6466036B1 (en) | 1998-11-25 | 2002-10-15 | Harald Philipp | Charge transfer capacitance measurement circuit |
JP2000163193A (ja) | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
US6154194A (en) | 1998-12-03 | 2000-11-28 | Ericsson Inc. | Device having adjustable touch-based display of data |
US6222465B1 (en) | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6246395B1 (en) | 1998-12-17 | 2001-06-12 | Hewlett-Packard Company | Palm pressure rejection method and apparatus for touchscreens |
US6259436B1 (en) | 1998-12-22 | 2001-07-10 | Ericsson Inc. | Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch |
US6643824B1 (en) | 1999-01-15 | 2003-11-04 | International Business Machines Corporation | Touch screen region assist for hypertext links |
US6535200B2 (en) | 1999-01-25 | 2003-03-18 | Harald Philipp | Capacitive position sensor |
EP1153404B1 (de) | 1999-01-26 | 2011-07-20 | QRG Limited | Kapazitiver messwandler und anordnung |
US6246862B1 (en) | 1999-02-03 | 2001-06-12 | Motorola, Inc. | Sensor controlled user interface for portable communication device |
JP2000231670A (ja) | 1999-02-10 | 2000-08-22 | Sharp Corp | タッチパネル搭載の販売管理装置 |
US6295049B1 (en) | 1999-03-03 | 2001-09-25 | Richard T. Minner | Computer system utilizing graphical user interface with hysteresis to inhibit accidental selection of a region due to unintended cursor motion and method |
JP2000250697A (ja) | 1999-03-03 | 2000-09-14 | Yazaki Corp | 多機能スイッチ装置における操作ボタンの機能表示方法及び多機能スイッチ装置 |
US7293231B1 (en) | 1999-03-18 | 2007-11-06 | British Columbia Ltd. | Data entry for personal computing devices |
US6545670B1 (en) | 1999-05-11 | 2003-04-08 | Timothy R. Pryor | Methods and apparatus for man machine interfaces and related activity |
US6710771B1 (en) | 1999-05-13 | 2004-03-23 | Sony Corporation | Information processing method and apparatus and medium |
US6920500B2 (en) | 1999-05-20 | 2005-07-19 | Prosia Overseas, Inc. | Method and apparatus for providing simplified access to the internet |
EP1054321A3 (de) | 1999-05-21 | 2002-06-19 | Sony Corporation | Informationsverarbeitungsverfahren und -vorrichtung |
US7030863B2 (en) | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
US7151528B2 (en) | 1999-06-22 | 2006-12-19 | Cirque Corporation | System for disposing a proximity sensitive touchpad behind a mobile phone keypad |
US6525711B1 (en) | 1999-06-24 | 2003-02-25 | Interval Research Corp. | Haptic interface including clutch control |
US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6904405B2 (en) | 1999-07-17 | 2005-06-07 | Edwin A. Suominen | Message recognition using shared language model |
US6337678B1 (en) | 1999-07-21 | 2002-01-08 | Tactiva Incorporated | Force feedback computer input and output device with coordinated haptic elements |
US6677934B1 (en) | 1999-07-30 | 2004-01-13 | L-3 Communications | Infrared touch panel with improved sunlight rejection |
US6489978B1 (en) | 1999-08-06 | 2002-12-03 | International Business Machines Corporation | Extending the opening time of state menu items for conformations of multiple changes |
US20020173721A1 (en) | 1999-08-20 | 2002-11-21 | Novasonics, Inc. | User interface for handheld imaging devices |
GB9920301D0 (en) | 1999-08-27 | 1999-11-03 | Philipp Harald | Level sensing |
US7149893B1 (en) | 1999-09-07 | 2006-12-12 | Poofaway.Com, Inc. | System and method for enabling the originator of an electronic mail message to preset an expiration time, date, and/or event, and to control processing or handling by a recipient |
US6411287B1 (en) | 1999-09-08 | 2002-06-25 | Elo Touchsystems, Inc. | Stress seal for acoustic wave touchscreens |
US6377009B1 (en) | 1999-09-08 | 2002-04-23 | Harald Philipp | Capacitive closure obstruction sensor |
US6424338B1 (en) | 1999-09-30 | 2002-07-23 | Gateway, Inc. | Speed zone touchpad |
GB9924177D0 (en) | 1999-10-12 | 1999-12-15 | Srs Technology Limited | Communication and control system |
EP1094383A3 (de) | 1999-10-18 | 2005-11-02 | Honeywell International, Inc. | Verfahren und Vorrichtung zur Kursorsteuerung |
JP2001134382A (ja) | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
US20030132950A1 (en) | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
US6757002B1 (en) | 1999-11-04 | 2004-06-29 | Hewlett-Packard Development Company, L.P. | Track pad pointing device with areas of specialized function |
US8482535B2 (en) | 1999-11-08 | 2013-07-09 | Apple Inc. | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US6677933B1 (en) | 1999-11-15 | 2004-01-13 | Espial Group Inc. | Method and apparatus for operating a virtual keyboard |
US20020196227A1 (en) | 1999-11-15 | 2002-12-26 | Samuel Surloff | Method and apparatus for providing simplified access to the internet |
JP2001147918A (ja) | 1999-11-24 | 2001-05-29 | Casio Comput Co Ltd | 情報表示装置及び情報表示処理プログラムを記憶した記憶媒体 |
US6920607B1 (en) | 1999-12-15 | 2005-07-19 | Microsoft Corp. | Methods and systems for dynamically creating user interfaces |
US6414674B1 (en) | 1999-12-17 | 2002-07-02 | International Business Machines Corporation | Data processing system and method including an I/O touch pad having dynamically alterable location indicators |
US7434177B1 (en) | 1999-12-20 | 2008-10-07 | Apple Inc. | User interface for providing consolidation and access |
US6573844B1 (en) | 2000-01-18 | 2003-06-03 | Microsoft Corporation | Predictive keyboard |
US6654733B1 (en) | 2000-01-18 | 2003-11-25 | Microsoft Corporation | Fuzzy keyboard |
US6661920B1 (en) | 2000-01-19 | 2003-12-09 | Palm Inc. | Method and apparatus for multiple simultaneously active data entry mechanisms on a computer system |
US20020140633A1 (en) | 2000-02-03 | 2002-10-03 | Canesta, Inc. | Method and system to present immersion virtual simulations using three-dimensional measurement |
JP2001230992A (ja) | 2000-02-18 | 2001-08-24 | Nidec Copal Corp | 画像表示装置及びその制御方法 |
US6798768B1 (en) | 2000-02-23 | 2004-09-28 | Lucent Technologies Inc. | Multimedia call routing in an IP network |
US6882641B1 (en) | 2000-02-23 | 2005-04-19 | Lucent Technologies Inc. | Call center queue administration |
US8712792B2 (en) | 2000-02-24 | 2014-04-29 | Webmd, Llc | Personalized health communication system |
US6597345B2 (en) | 2000-03-03 | 2003-07-22 | Jetway Technologies Ltd. | Multifunctional keypad on touch screen |
JP3812274B2 (ja) | 2000-03-17 | 2006-08-23 | 株式会社日立製作所 | 映像アクセス装置及び映像アクセスプログラムを記録した記録媒体 |
JP2001265481A (ja) | 2000-03-21 | 2001-09-28 | Nec Corp | ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体 |
US6791467B1 (en) | 2000-03-23 | 2004-09-14 | Flextronics Semiconductor, Inc. | Adaptive remote controller |
US6543684B1 (en) | 2000-03-28 | 2003-04-08 | Ncr Corporation | Transaction terminal with privacy shield for touch-screen pin entry |
US6456952B1 (en) | 2000-03-29 | 2002-09-24 | Ncr Coporation | System and method for touch screen environmental calibration |
US6624833B1 (en) | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US6570584B1 (en) | 2000-05-15 | 2003-05-27 | Eastman Kodak Company | Broad color gamut display |
US6611252B1 (en) | 2000-05-17 | 2003-08-26 | Dufaux Douglas P. | Virtual data input device |
US20020044161A1 (en) | 2000-05-22 | 2002-04-18 | Kazuaki Sugai | Multi-window display system and method for displaying video data and storage medium |
US20020075317A1 (en) | 2000-05-26 | 2002-06-20 | Dardick Technologies | System and method for an on-demand script-activated virtual keyboard |
IL136652A0 (en) | 2000-06-08 | 2001-06-14 | Arlinsky David | A closed-loop control system in a car |
KR20010111166A (ko) | 2000-06-08 | 2001-12-17 | 윤종용 | 휴대폰의 메뉴 아이콘 변경 방법 및 메뉴 구성 편집 방법 |
FI20001429A (fi) | 2000-06-15 | 2001-12-16 | Nokia Corp | Vaihtoehdon valitseminen |
US6442440B1 (en) | 2000-06-24 | 2002-08-27 | Dade Behring Inc. | Computer interface module having a flat menu |
US6803906B1 (en) | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
US7466843B2 (en) | 2000-07-07 | 2008-12-16 | Pryor Timothy R | Multi-functional control and entertainment systems |
US8287374B2 (en) | 2000-07-07 | 2012-10-16 | Pryor Timothy R | Reconfigurable control displays for games, toys, and other applications |
JP4543513B2 (ja) | 2000-07-17 | 2010-09-15 | ソニー株式会社 | 双方向通信システム、表示装置、ベース装置および双方向通信方法 |
US6944591B1 (en) | 2000-07-27 | 2005-09-13 | International Business Machines Corporation | Audio support system for controlling an e-mail system in a remote computer |
US7856603B2 (en) | 2000-08-17 | 2010-12-21 | Moelgaard John | Graphical user interface |
JP4197220B2 (ja) | 2000-08-17 | 2008-12-17 | アルパイン株式会社 | 操作装置 |
DE10042300A1 (de) | 2000-08-29 | 2002-03-28 | Axel C Burgbacher | Elektronisches Musikinstrument |
US6480188B1 (en) | 2000-09-06 | 2002-11-12 | Digital On-Demand | Thumbwheel selection system |
JP2002157078A (ja) | 2000-09-07 | 2002-05-31 | Sony Corp | 情報処理装置及び方法、並びに記録媒体 |
US6680677B1 (en) | 2000-10-06 | 2004-01-20 | Logitech Europe S.A. | Proximity detector to indicate function of a key |
US6421234B1 (en) | 2000-10-10 | 2002-07-16 | Juniper Systems, Inc. | Handheld electronics device having ergonomic features |
US6942571B1 (en) | 2000-10-16 | 2005-09-13 | Bally Gaming, Inc. | Gaming device with directional and speed control of mechanical reels using touch screen |
JP4284855B2 (ja) | 2000-10-25 | 2009-06-24 | ソニー株式会社 | 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体 |
TW486657B (en) | 2000-10-26 | 2002-05-11 | Animeta Systems Inc | Browser interface operation device and its browsing method |
US6501464B1 (en) | 2000-10-31 | 2002-12-31 | Intel Corporation | On-screen transparent keyboard interface |
US6593916B1 (en) | 2000-11-03 | 2003-07-15 | James L. Aroyan | Touchscreen having multiple parallel connections to each electrode in a series resistor chain on the periphery of the touch area |
US6918091B2 (en) | 2000-11-09 | 2005-07-12 | Change Tools, Inc. | User definable interface system, method and computer program product |
US7319454B2 (en) | 2000-11-10 | 2008-01-15 | Microsoft Corporation | Two-button mouse input using a stylus |
US6903730B2 (en) | 2000-11-10 | 2005-06-07 | Microsoft Corporation | In-air gestures for electromagnetic coordinate digitizers |
US6703999B1 (en) | 2000-11-13 | 2004-03-09 | Toyota Jidosha Kabushiki Kaisha | System for computer user interface |
DE10059906A1 (de) | 2000-12-01 | 2002-06-06 | Bs Biometric Systems Gmbh | Druckempfindliche Fläche eines Bildschirms oder Displays |
US20040036622A1 (en) | 2000-12-15 | 2004-02-26 | Semyon Dukach | Apparatuses, methods, and computer programs for displaying information on signs |
US7190348B2 (en) | 2000-12-26 | 2007-03-13 | International Business Machines Corporation | Method for touchscreen data input |
US6457834B1 (en) | 2001-01-24 | 2002-10-01 | Scram Technologies, Inc. | Optical system for display panel |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US20020135615A1 (en) | 2001-01-31 | 2002-09-26 | Microsoft Corporation | Overlaid display for electronic devices |
US6670894B2 (en) | 2001-02-05 | 2003-12-30 | Carsten Mehring | System and method for keyboard independent touch typing |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US20070083823A1 (en) | 2001-02-15 | 2007-04-12 | Denny Jaeger | Scroll bar for computer display |
JP2002244781A (ja) | 2001-02-15 | 2002-08-30 | Wacom Co Ltd | 入力システム、プログラム、及び、記録媒体 |
US20080024463A1 (en) | 2001-02-22 | 2008-01-31 | Timothy Pryor | Reconfigurable tactile control display applications |
US20080088587A1 (en) | 2001-02-22 | 2008-04-17 | Timothy Pryor | Compact rtd instrument panels and computer interfaces |
US7133531B2 (en) | 2001-02-27 | 2006-11-07 | Nissim Karpenstein | Device using analog controls to mix compressed digital audio data |
US7904358B2 (en) | 2001-02-28 | 2011-03-08 | Goldman Sachs & Co. | Computerized interface for monitoring financial information and executing financial transactions |
JP2002259036A (ja) | 2001-02-28 | 2002-09-13 | Sony Corp | 情報処理装置及び情報処理方法、記録媒体並びにプログラム |
US6806869B2 (en) | 2001-03-02 | 2004-10-19 | Seiko Epson Corporation | Data processing system utilizing discrete operating device |
US6543947B2 (en) | 2001-03-14 | 2003-04-08 | Lee Jose H. | Keyboard having keys arranged in a pan configuration |
US6621483B2 (en) | 2001-03-16 | 2003-09-16 | Agilent Technologies, Inc. | Optical screen pointing device with inertial properties |
GB2373596B (en) | 2001-03-19 | 2003-02-12 | Synigence Plc | Apparatus for facilitating access to information |
US7012595B2 (en) | 2001-03-30 | 2006-03-14 | Koninklijke Philips Electronics N.V. | Handheld electronic device with touch pad |
US6724366B2 (en) | 2001-04-03 | 2004-04-20 | Peter James Crawford | Thumb actuated x-y input device |
JP3597141B2 (ja) | 2001-04-03 | 2004-12-02 | 泰鈞 温 | 情報入力装置及び方法、並びに携帯電話機及び携帯電話機の文字入力方法 |
TW504916B (en) | 2001-04-24 | 2002-10-01 | Inventec Appliances Corp | Method capable of generating different input values by pressing a single key from multiple directions |
US7168046B2 (en) | 2001-04-26 | 2007-01-23 | Lg Electronics Inc. | Method and apparatus for assisting data input to a portable information terminal |
US6965375B1 (en) | 2001-04-27 | 2005-11-15 | Palm, Inc. | Compact integrated touch panel display for a handheld device |
AU2002305392A1 (en) | 2001-05-02 | 2002-11-11 | Bitstream, Inc. | Methods, systems, and programming for producing and displaying subpixel-optimized images and digital content including such images |
US20050024341A1 (en) | 2001-05-16 | 2005-02-03 | Synaptics, Inc. | Touch screen with user interface enhancement |
US7730401B2 (en) | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
JP3800984B2 (ja) | 2001-05-21 | 2006-07-26 | ソニー株式会社 | ユーザ入力装置 |
US6992659B2 (en) | 2001-05-22 | 2006-01-31 | Palmone, Inc. | High transparency integrated enclosure touch screen assembly for a portable hand held device |
TW521205B (en) | 2001-06-05 | 2003-02-21 | Compal Electronics Inc | Touch screen capable of controlling amplification with pressure |
US6904570B2 (en) | 2001-06-07 | 2005-06-07 | Synaptics, Inc. | Method and apparatus for controlling a display of data on a display screen |
US7308652B2 (en) | 2001-06-08 | 2007-12-11 | Lenovo Singapore Pte. Ltd | Entry of a password through a touch-sensitive computer screen |
US6975304B1 (en) | 2001-06-11 | 2005-12-13 | Handspring, Inc. | Interface for processing of an alternate symbol in a computer device |
JP2003005912A (ja) | 2001-06-20 | 2003-01-10 | Hitachi Ltd | タッチパネル付きディスプレイ装置及び表示方法 |
US6583676B2 (en) | 2001-06-20 | 2003-06-24 | Apple Computer, Inc. | Proximity/touch detector and calibration circuit |
US7512964B2 (en) | 2001-06-29 | 2009-03-31 | Cisco Technology | System and method for archiving multiple downloaded recordable media content |
FI116591B (fi) | 2001-06-29 | 2005-12-30 | Nokia Corp | Menetelmä ja laite toiminnon toteuttamiseksi |
US20030001899A1 (en) | 2001-06-29 | 2003-01-02 | Nokia Corporation | Semi-transparent handwriting recognition UI |
US6670951B2 (en) | 2001-07-03 | 2003-12-30 | Hewlett-Packard Development Company, L.P. | Methods and systems for increasing the input efficiency of personal digital assistants and other handheld stylus-engagable computing devices |
US6478432B1 (en) | 2001-07-13 | 2002-11-12 | Chad D. Dyner | Dynamically generated interactive real imaging device |
US20050134578A1 (en) | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US6961912B2 (en) | 2001-07-18 | 2005-11-01 | Xerox Corporation | Feedback mechanism for use with visual selection methods |
US20030030664A1 (en) | 2001-08-13 | 2003-02-13 | Parry Travis J. | Customizable control panel software |
DE10140874A1 (de) | 2001-08-21 | 2003-03-20 | Dosch & Amand Gmbh & Co Kg | Graphische Benutzeroberfläche |
US6972749B2 (en) | 2001-08-29 | 2005-12-06 | Microsoft Corporation | Touch-sensitive device for scrolling a document on a display |
CN100339809C (zh) | 2001-09-21 | 2007-09-26 | 联想(新加坡)私人有限公司 | 输入装置、计算机装置、输入对象的识别方法、软件键盘的输入对象识别方法 |
JP2003173237A (ja) | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US7254775B2 (en) | 2001-10-03 | 2007-08-07 | 3M Innovative Properties Company | Touch panel system and method for distinguishing multiple touch inputs |
GB2380583A (en) | 2001-10-04 | 2003-04-09 | Ilam Samson | Touch pad/screen for electronic equipment |
KR20040048935A (ko) | 2001-10-04 | 2004-06-10 | 엑스티엘 바이오파마수티칼즈 엘티디. | 인간 모노클로날 항체를 이용한 비형 간염 바이러스감염의 치료 |
US20030071850A1 (en) | 2001-10-12 | 2003-04-17 | Microsoft Corporation | In-place adaptive handwriting input method and system |
US6728032B2 (en) | 2001-10-17 | 2004-04-27 | Infocus Corporation | Rear projection display system |
US8117565B2 (en) | 2001-10-18 | 2012-02-14 | Viaclix, Inc. | Digital image magnification for internet appliance |
US7046230B2 (en) | 2001-10-22 | 2006-05-16 | Apple Computer, Inc. | Touch pad handheld device |
US7345671B2 (en) | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
US7312785B2 (en) | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US7084856B2 (en) | 2001-10-22 | 2006-08-01 | Apple Computer, Inc. | Mouse having a rotary dial |
GB2382292A (en) | 2001-11-17 | 2003-05-21 | Oliver Wallington | Digital display with scrolling means |
US7009599B2 (en) | 2001-11-20 | 2006-03-07 | Nokia Corporation | Form factor for portable device |
US6762752B2 (en) | 2001-11-29 | 2004-07-13 | N-Trig Ltd. | Dual function input device and method |
US6938221B2 (en) | 2001-11-30 | 2005-08-30 | Microsoft Corporation | User interface for stylus-based user input |
US7083342B2 (en) | 2001-12-21 | 2006-08-01 | Griffin Jason T | Keyboard arrangement |
DE10251296A1 (de) | 2002-11-03 | 2004-05-19 | Trachte, Ralf, Dr. | flexibles Engabesystem / Mehrfinger-System |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US6952203B2 (en) | 2002-01-08 | 2005-10-04 | International Business Machines Corporation | Touchscreen user interface: Bluetooth™ stylus for performing right mouse clicks |
US6977643B2 (en) | 2002-01-10 | 2005-12-20 | International Business Machines Corporation | System and method implementing non-physical pointers for computer devices |
US20030197736A1 (en) | 2002-01-16 | 2003-10-23 | Murphy Michael W. | User interface for character entry using a minimum number of selection keys |
US20030132922A1 (en) | 2002-01-17 | 2003-07-17 | Harald Philipp | Touch screen detection apparatus |
GB0201074D0 (en) | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
US7075512B1 (en) | 2002-02-07 | 2006-07-11 | Palmsource, Inc. | Method and system for navigating a display screen for locating a desired item of information |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
AUPS058602A0 (en) | 2002-02-15 | 2002-03-14 | Canon Kabushiki Kaisha | Representing a plurality of independent data items |
CA2476690A1 (en) | 2002-02-26 | 2003-09-04 | Cirque Corporation | Touchpad having fine and coarse input resolution |
US6900795B1 (en) | 2002-02-27 | 2005-05-31 | Knight, Iii Jack | Unitary molded lens filter for touch screen interface |
US6985801B1 (en) | 2002-02-28 | 2006-01-10 | Garmin International, Inc. | Cockpit instrument panel systems and methods with redundant flight data display |
JP3847641B2 (ja) | 2002-02-28 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法 |
US6832138B1 (en) | 2002-02-28 | 2004-12-14 | Garmin International, Inc. | Cockpit instrument panel systems and methods with redundant flight data display |
AU2003213780B2 (en) | 2002-03-08 | 2008-03-13 | Quantum Interface, Llc | Electric device control apparatus |
WO2003077073A2 (en) | 2002-03-08 | 2003-09-18 | Fleettrakker, L.L.C. | Equipment tracking system and method |
US7120872B2 (en) | 2002-03-25 | 2006-10-10 | Microsoft Corporation | Organizing, editing, and rendering digital ink |
US6927761B2 (en) | 2002-03-29 | 2005-08-09 | 3M Innovative Properties Company | Moisture deflector for capacitive NFI touch screens for use with bezels of conductive material |
US7038659B2 (en) | 2002-04-06 | 2006-05-02 | Janusz Wiktor Rajkowski | Symbol encoding apparatus and method |
US6658994B1 (en) | 2002-04-10 | 2003-12-09 | Chromalox, Inc. | Modular assembly for a holding cabinet controller |
US7466307B2 (en) | 2002-04-11 | 2008-12-16 | Synaptics Incorporated | Closed-loop sensor on a solid-state object position detector |
US20030193481A1 (en) | 2002-04-12 | 2003-10-16 | Alexander Sokolsky | Touch-sensitive input overlay for graphical user interface |
JP2003316502A (ja) | 2002-04-25 | 2003-11-07 | Sony Corp | 端末装置、文字入力方法 |
JP2003323259A (ja) | 2002-05-02 | 2003-11-14 | Nec Corp | 情報処理装置 |
US7746325B2 (en) | 2002-05-06 | 2010-06-29 | 3M Innovative Properties Company | Method for improving positioned accuracy for a determined touch input |
US7890865B2 (en) | 2002-05-09 | 2011-02-15 | Microsoft Corporation | Methods and apparatuses for providing message information in graphical user interfaces based on user inputs |
TWI238348B (en) | 2002-05-13 | 2005-08-21 | Kyocera Corp | Portable information terminal, display control device, display control method, and recording media |
US7051284B2 (en) | 2002-05-16 | 2006-05-23 | Microsoft Corporation | Displaying information to indicate both the importance and the urgency of the information |
JP3852368B2 (ja) | 2002-05-16 | 2006-11-29 | ソニー株式会社 | 入力方法及びデータ処理装置 |
EP1505484B1 (de) | 2002-05-16 | 2012-08-15 | Sony Corporation | Eingabeverfahren und eingabevorrichtung |
US7069515B1 (en) | 2002-05-21 | 2006-06-27 | Claria Corporation | Method and apparatus for displaying messages in computer systems |
KR100941948B1 (ko) | 2002-05-21 | 2010-02-11 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 객체를 선택 및 입력하는 시스템, 객체 세트로부터 객체를 입력하는 방법, 및 이 방법을 구현하기 위한 소프트웨어 코드를 저장하기 위한 컴퓨터 판독가능 매체 |
JP2003338954A (ja) | 2002-05-21 | 2003-11-28 | Toshiba Corp | デジタルスチルカメラ |
US20030222977A1 (en) | 2002-06-03 | 2003-12-04 | Kazutora Yoshino | Intelligent system and 3D virtual object generator |
FI20021162A0 (fi) | 2002-06-14 | 2002-06-14 | Nokia Corp | Elektroninen laite ja menetelmä sen näppäimistön hallintaan |
US7219308B2 (en) | 2002-06-21 | 2007-05-15 | Microsoft Corporation | User interface for media player program |
FI112119B (fi) | 2002-06-25 | 2003-10-31 | Nokia Corp | Menetelmä ohjauskomennon tulkitsemiseksi ja kannettava elektroninen laite |
US7307661B2 (en) | 2002-06-26 | 2007-12-11 | Vbk Inc. | Multifunctional integrated image sensor and application to virtual interface technology |
JP2004038896A (ja) | 2002-06-28 | 2004-02-05 | Clarion Co Ltd | 表示制御手段 |
US7023427B2 (en) | 2002-06-28 | 2006-04-04 | Microsoft Corporation | Method and system for detecting multiple touches on a touch-sensitive screen |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US20040056849A1 (en) | 2002-07-25 | 2004-03-25 | Andrew Lohbihler | Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen |
US7058902B2 (en) | 2002-07-30 | 2006-06-06 | Microsoft Corporation | Enhanced on-object context menus |
JP4115198B2 (ja) | 2002-08-02 | 2008-07-09 | 株式会社日立製作所 | タッチパネルを備えた表示装置 |
US6896375B2 (en) | 2002-08-16 | 2005-05-24 | Infocus Corporation | Rear projection display device having multiple mirrors that are substantially parallel to a screen |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
EP1394640B1 (de) | 2002-08-30 | 2010-03-24 | Asulab S.A. | Uhr mit taktiler Ablesung und Betätigung der Zeitinformation |
JP2004104594A (ja) | 2002-09-11 | 2004-04-02 | Toshiba Corp | デジタルスチルカメラ及びユーザ指示入力方法 |
US7789756B2 (en) | 2002-09-13 | 2010-09-07 | Igt | Wagering gaming device having simulated control of movement of game functional elements |
US7331868B2 (en) | 2002-09-13 | 2008-02-19 | Igt | Wagering gaming device providing physical stimulation responses to various components of the gaming device |
JP2004110388A (ja) | 2002-09-18 | 2004-04-08 | Sharp Corp | タッチパネルを有する装置 |
GB0222094D0 (en) | 2002-09-24 | 2002-10-30 | Koninkl Philips Electronics Nv | Graphical user interface navigation method and apparatus |
JP2004118917A (ja) | 2002-09-25 | 2004-04-15 | Clarion Co Ltd | 電子機器及びナビゲーション装置 |
US8443045B2 (en) | 2002-10-01 | 2013-05-14 | Honda Motor Co., Ltd. | Storage of selected e-mails including attachments in document management system |
US20040080529A1 (en) | 2002-10-24 | 2004-04-29 | Wojcik Paul Kazimierz | Method and system for securing text-entry in a web form over a computer network |
US20040095311A1 (en) | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
KR101016981B1 (ko) | 2002-11-29 | 2011-02-28 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 데이터 처리 시스템, 사용자로 하여금 데이터 처리 시스템과 대화하도록 하는 방법, 및 컴퓨터 프로그램 제품을 저장한 컴퓨터 판독가능 매체 |
AU2003302554A1 (en) | 2002-11-29 | 2004-06-23 | Gnvention Ltd. | Interface device for portable storage media |
CA2513153A1 (en) | 2002-12-19 | 2004-07-15 | Anders Trell Trust | Computer input device |
US7081887B2 (en) | 2002-12-19 | 2006-07-25 | Intel Corporation | Method and apparatus for positioning a software keyboard |
US7219829B2 (en) | 2002-12-24 | 2007-05-22 | Tracey Treat | Carrier which is aesthetically irreversibly convertible from planar blank to closed package for coded card and methods for manufacture and use of the same |
US6927763B2 (en) | 2002-12-30 | 2005-08-09 | Motorola, Inc. | Method and system for providing a disambiguated keypad |
WO2004064370A2 (en) | 2003-01-08 | 2004-07-29 | Silicon Optix Inc. | Image projection system and method |
US7895536B2 (en) | 2003-01-08 | 2011-02-22 | Autodesk, Inc. | Layer editor system for a pen-based computer |
US7337634B2 (en) | 2003-01-09 | 2008-03-04 | General Electric Company | Washer/dryer touch sensitive graphical user interface |
US7194699B2 (en) | 2003-01-14 | 2007-03-20 | Microsoft Corporation | Animating images to reflect user selection |
US7149981B1 (en) | 2003-01-16 | 2006-12-12 | Sprint Spectrum L.P. | Method and system for facilitating selection of a portion of non-focusable object presented by a browser application |
US7098896B2 (en) | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
US7305129B2 (en) | 2003-01-29 | 2007-12-04 | Microsoft Corporation | Methods and apparatus for populating electronic forms from scanned documents |
US20040145601A1 (en) | 2003-01-29 | 2004-07-29 | International Business Machines Corporation | Method and a device for providing additional functionality to a separate application |
US6972401B2 (en) | 2003-01-30 | 2005-12-06 | Smart Technologies Inc. | Illuminated bezel and touch system incorporating the same |
US7158123B2 (en) | 2003-01-31 | 2007-01-02 | Xerox Corporation | Secondary touch contextual sub-menu navigation for touch screen interface |
US20040150669A1 (en) | 2003-01-31 | 2004-08-05 | Sabiers Mark L. | Graphical user interface for describing the state of a managed system |
EP1445922A1 (de) | 2003-02-06 | 2004-08-11 | Dialog Semiconductor GmbH | Monolithisch integrierte optische Leseschaltung |
US20040155888A1 (en) | 2003-02-11 | 2004-08-12 | Padgitt David Gary | Method for displaying the contents of a collection of media objects |
US20040160419A1 (en) | 2003-02-11 | 2004-08-19 | Terradigital Systems Llc. | Method for entering alphanumeric characters into a graphical user interface |
JP3844076B2 (ja) | 2003-03-07 | 2006-11-08 | セイコーエプソン株式会社 | 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法 |
US7103852B2 (en) | 2003-03-10 | 2006-09-05 | International Business Machines Corporation | Dynamic resizing of clickable areas of touch screen applications |
US20040183833A1 (en) | 2003-03-19 | 2004-09-23 | Chua Yong Tong | Keyboard error reduction method and apparatus |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
EP2213501A3 (de) | 2003-03-31 | 2012-05-09 | Timothy R. Pryor | Rekonfigurierbare Fahrzeugarmaturenbretter |
DE602004006190T8 (de) | 2003-03-31 | 2008-04-10 | Honda Motor Co., Ltd. | Vorrichtung, Verfahren und Programm zur Gestenerkennung |
US7884804B2 (en) | 2003-04-30 | 2011-02-08 | Microsoft Corporation | Keyboard with input-sensitive display device |
CA2426867A1 (en) | 2003-04-30 | 2004-10-30 | Naviform Holdings Ltd. | Customizable keyboard |
US7233316B2 (en) | 2003-05-01 | 2007-06-19 | Thomson Licensing | Multimedia user interface |
US8555165B2 (en) | 2003-05-08 | 2013-10-08 | Hillcrest Laboratories, Inc. | Methods and systems for generating a zoomable graphical user interface |
US8479112B2 (en) | 2003-05-13 | 2013-07-02 | Microsoft Corporation | Multiple input language selection |
US7302642B2 (en) | 2003-06-03 | 2007-11-27 | Tim Simon, Inc. | Thermostat with touch-screen display |
US7475390B2 (en) | 2004-01-12 | 2009-01-06 | International Business Machines Corporation | System and method for automatic natural language translation during information transfer |
US7310781B2 (en) | 2003-06-05 | 2007-12-18 | International Business Machines Corporation | System and method for content and information transfer between program entities |
JP2006527439A (ja) | 2003-06-13 | 2006-11-30 | ユニヴァーシティ オブ ランカスター | ユーザインタフェース |
JP3938104B2 (ja) | 2003-06-19 | 2007-06-27 | ヤマハ株式会社 | アルペジオパターン設定装置およびプログラム |
US20040263484A1 (en) | 2003-06-25 | 2004-12-30 | Tapio Mantysalo | Multifunctional UI input device for moblie terminals |
US7474772B2 (en) | 2003-06-25 | 2009-01-06 | Atrua Technologies, Inc. | System and method for a miniature user input device |
US7057607B2 (en) | 2003-06-30 | 2006-06-06 | Motorola, Inc. | Application-independent text entry for touch-sensitive display |
US8373660B2 (en) | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
US20050015731A1 (en) | 2003-07-15 | 2005-01-20 | Microsoft Corporation | Handling data across different portions or regions of a desktop |
US7499040B2 (en) | 2003-08-18 | 2009-03-03 | Apple Inc. | Movable touch pad with added functionality |
US20060181517A1 (en) | 2005-02-11 | 2006-08-17 | Apple Computer, Inc. | Display actuator |
US9024884B2 (en) | 2003-09-02 | 2015-05-05 | Apple Inc. | Touch-sensitive electronic apparatus for media applications, and methods therefor |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
US7411575B2 (en) | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
JP2005108041A (ja) | 2003-09-30 | 2005-04-21 | Toshiba Corp | 携帯端末のメニュー画面表示方法及び携帯端末 |
US7209116B2 (en) | 2003-10-08 | 2007-04-24 | Universal Electronics Inc. | Control device having integrated mouse and remote control capabilities |
US20050091577A1 (en) | 2003-10-23 | 2005-04-28 | International Business Machines Corporation | Information integration system |
US7478336B2 (en) | 2003-11-06 | 2009-01-13 | International Business Machines Corporation | Intermediate viewer for transferring information elements via a transfer buffer to a plurality of sets of destinations |
US6970749B1 (en) | 2003-11-12 | 2005-11-29 | Adobe Systems Incorporated | Grouped palette stashing |
US7495659B2 (en) | 2003-11-25 | 2009-02-24 | Apple Inc. | Touch pad for handheld device |
GB2402650B (en) | 2003-12-31 | 2006-05-10 | Research In Motion Ltd | Keyboard arrangement |
US7346853B2 (en) | 2004-01-12 | 2008-03-18 | International Business Machines Corporation | Online learning monitor |
US7340685B2 (en) | 2004-01-12 | 2008-03-04 | International Business Machines Corporation | Automatic reference note generator |
WO2005069114A1 (ja) | 2004-01-15 | 2005-07-28 | Vodafone K.K. | 移動体通信端末 |
US20050162402A1 (en) | 2004-01-27 | 2005-07-28 | Watanachote Susornpol J. | Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback |
US7697729B2 (en) | 2004-01-29 | 2010-04-13 | Authentec, Inc. | System for and method of finger initiated actions |
US6856259B1 (en) | 2004-02-06 | 2005-02-15 | Elo Touchsystems, Inc. | Touch sensor system to detect multiple touch events |
US7545784B2 (en) | 2004-02-11 | 2009-06-09 | Yahoo! Inc. | System and method for wireless communication between previously known and unknown users |
US20050190970A1 (en) | 2004-02-27 | 2005-09-01 | Research In Motion Limited | Text input system for a mobile electronic device and methods thereof |
EP1569079B1 (de) | 2004-02-27 | 2013-05-15 | Research In Motion Limited | Texteingabesystem sowie -verfahren für ein elektronisches Mobilgerät |
US7607576B2 (en) | 2004-02-27 | 2009-10-27 | Gilbarco, Inc. | Local zone security architecture for retail environments |
US7706616B2 (en) | 2004-02-27 | 2010-04-27 | International Business Machines Corporation | System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout |
US20050204008A1 (en) | 2004-03-09 | 2005-09-15 | Marc Shinbrood | System and method for controlling the downstream preservation and destruction of electronic mail |
US7183476B2 (en) | 2004-03-18 | 2007-02-27 | Swingle Margaret J | Portable electronic music score device for transporting, storing displaying, and annotating music scores |
US7180502B2 (en) | 2004-03-23 | 2007-02-20 | Fujitsu Limited | Handheld device with preferred motion selection |
US7777730B2 (en) | 2004-05-05 | 2010-08-17 | Koninklijke Philips Electronics N.V. | Browsing media items |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
EP1769326A2 (de) | 2004-06-29 | 2007-04-04 | Koninklijke Philips Electronics N.V. | Verfahren und einrichtung zur verhinderung einer verunreinigung einer anzeigeeinrichtung |
US7743348B2 (en) | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
US20060007174A1 (en) | 2004-07-06 | 2006-01-12 | Chung-Yi Shen | Touch control method for a drag gesture and control module thereof |
US7398472B2 (en) | 2004-07-09 | 2008-07-08 | Microsoft Corporation | Defining the visual appearance of user-interface controls |
US7664748B2 (en) | 2004-07-12 | 2010-02-16 | John Eric Harrity | Systems and methods for changing symbol sequences in documents |
US20060012577A1 (en) | 2004-07-16 | 2006-01-19 | Nokia Corporation | Active keypad lock for devices equipped with touch screen |
US20080129707A1 (en) | 2004-07-27 | 2008-06-05 | Pryor Timothy R | Method and apparatus employing multi-functional controls and displays |
AU2005269406A1 (en) | 2004-07-28 | 2006-02-09 | Newton Peripherals, Llc | Peripheral devices for portable computer |
AU2005256105B8 (en) * | 2004-07-30 | 2008-10-02 | Blackberry Limited | Method and apparatus for provisioning a communications client on a host device |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
KR100984596B1 (ko) | 2004-07-30 | 2010-09-30 | 애플 인크. | 터치 감지 입력 장치용 제스처 |
US7599044B2 (en) | 2005-06-23 | 2009-10-06 | Apple Inc. | Method and apparatus for remotely detecting presence |
EP1774427A2 (de) | 2004-07-30 | 2007-04-18 | Apple Computer, Inc. | Auf modus basierende graphische benutzeroberflächen für berührungsempfindliche eingabeeinrichtungen |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
KR100737558B1 (ko) | 2004-08-16 | 2007-07-10 | 주식회사 팬택앤큐리텔 | 선호도를 이용한 수신알림 레벨 제어 기능을 가지는무선통신 단말기 및 그 방법 |
CN100555200C (zh) | 2004-08-16 | 2009-10-28 | 苹果公司 | 触敏器件和提高触敏器件的空间分辨率的方法 |
US20060044280A1 (en) | 2004-08-31 | 2006-03-02 | Huddleston Wyatt A | Interface |
US20100231506A1 (en) | 2004-09-07 | 2010-09-16 | Timothy Pryor | Control of appliances, kitchen and home |
US7719522B2 (en) | 2004-09-24 | 2010-05-18 | Apple Inc. | Raw data track pad device and system |
US20060066590A1 (en) | 2004-09-29 | 2006-03-30 | Masanori Ozawa | Input device |
US20060071915A1 (en) | 2004-10-05 | 2006-04-06 | Rehm Peter H | Portable computer and method for taking notes with sketches and typed text |
US7454717B2 (en) | 2004-10-20 | 2008-11-18 | Microsoft Corporation | Delimiters for selection-action pen gesture phrases |
US7242311B2 (en) | 2004-10-29 | 2007-07-10 | Caterpillar Inc. | Method and system for providing work machine multi-functional user interface |
US7489306B2 (en) | 2004-12-22 | 2009-02-10 | Microsoft Corporation | Touch screen accuracy |
US7617283B2 (en) | 2005-01-10 | 2009-11-10 | International Business Machines Corporation | System and method for instant messaging |
US20060181519A1 (en) | 2005-02-14 | 2006-08-17 | Vernier Frederic D | Method and system for manipulating graphical objects displayed on a touch-sensitive display surface using displaced pop-ups |
US7605804B2 (en) | 2005-04-29 | 2009-10-20 | Microsoft Corporation | System and method for fine cursor positioning using a low resolution imaging touch screen |
US7487461B2 (en) | 2005-05-04 | 2009-02-03 | International Business Machines Corporation | System and method for issuing commands based on pen motions on a graphical keyboard |
US8185841B2 (en) | 2005-05-23 | 2012-05-22 | Nokia Corporation | Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen |
US20070011603A1 (en) | 2005-07-06 | 2007-01-11 | Mikko Makela | Method, system, device and software product for showing tooltips for page segments and generating content for the page segments |
WO2007016370A2 (en) | 2005-07-29 | 2007-02-08 | Eazypaper Inc. | Computer method and apparatus using embedded message window for displaying messages in a functional bar |
WO2007025119A2 (en) | 2005-08-26 | 2007-03-01 | Veveo, Inc. | User interface for visual cooperation between text input and display device |
US7443316B2 (en) | 2005-09-01 | 2008-10-28 | Motorola, Inc. | Entering a character into an electronic device |
US7694231B2 (en) | 2006-01-05 | 2010-04-06 | Apple Inc. | Keyboards for portable electronic devices |
US8819144B2 (en) | 2005-10-14 | 2014-08-26 | Blackberry Limited | Method, device, software and graphical user interface for forwarding messages between message handling services |
US8745140B2 (en) | 2005-10-14 | 2014-06-03 | Blackberry Limited | System and method of handling messages for forwarding |
US7958456B2 (en) | 2005-12-23 | 2011-06-07 | Apple Inc. | Scrolling list with floating adjacent index symbols |
US8139028B2 (en) | 2006-02-01 | 2012-03-20 | Synaptics Incorporated | Proximity sensor and method for indicating extended interface results |
EP1816573A1 (de) | 2006-02-02 | 2007-08-08 | Nextair Corporation | Vorrichtung, Verfahren und maschinenlesbares Medium zur Erstellung eines Markup-Language-Dokuments mit identischen Markup-Language-Elementsätzen |
US7529795B2 (en) | 2006-03-20 | 2009-05-05 | Stragent, Llc | Message board aggregator |
US7538760B2 (en) | 2006-03-30 | 2009-05-26 | Apple Inc. | Force imaging input device and system |
US7511702B2 (en) | 2006-03-30 | 2009-03-31 | Apple Inc. | Force and location sensitive display |
US7978181B2 (en) | 2006-04-25 | 2011-07-12 | Apple Inc. | Keystroke tactility arrangement on a smooth touch surface |
US8279180B2 (en) | 2006-05-02 | 2012-10-02 | Apple Inc. | Multipoint touch surface controller |
US7765494B2 (en) | 2006-05-24 | 2010-07-27 | Sap Ag | Harmonized theme definition language |
US20080040692A1 (en) | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
US8694895B2 (en) | 2007-02-05 | 2014-04-08 | Microsoft Corporation | Human interaction with application from email client |
US8209619B2 (en) | 2007-03-16 | 2012-06-26 | Oracle International Corporation | Non-linear navigation in discussion forums |
US9740386B2 (en) | 2007-06-13 | 2017-08-22 | Apple Inc. | Speed/positional mode translations |
US8059101B2 (en) | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
US20090064006A1 (en) | 2007-08-30 | 2009-03-05 | Indran Naick | Techniques for Performing Tasks Associated with Custom Folder Controls |
JP5533254B2 (ja) | 2010-05-24 | 2014-06-25 | アイシン・エィ・ダブリュ株式会社 | 情報表示装置、情報表示方法及びプログラム |
US8773377B2 (en) | 2011-03-04 | 2014-07-08 | Microsoft Corporation | Multi-pass touch contact tracking |
WO2014043275A1 (en) | 2012-09-11 | 2014-03-20 | Apple Inc. | Gesturing with a multipoint sensing device |
-
2007
- 2007-01-31 US US11/700,636 patent/US9292111B2/en active Active
-
2008
- 2008-01-22 WO PCT/US2008/051727 patent/WO2008094791A2/en active Application Filing
- 2008-01-22 EP EP08728099A patent/EP2115560A2/de not_active Withdrawn
- 2008-01-22 AU AU2008210864A patent/AU2008210864A1/en not_active Abandoned
- 2008-01-22 CN CN200880008532A patent/CN101636711A/zh active Pending
- 2008-01-22 JP JP2009548360A patent/JP2010517197A/ja not_active Abandoned
- 2008-01-29 HK HK08101101A patent/HK1109023A2/xx not_active IP Right Cessation
- 2008-01-30 DE DE202008001338U patent/DE202008001338U1/de not_active Expired - Lifetime
- 2008-01-30 AU AU2008100085A patent/AU2008100085A4/en not_active Ceased
- 2008-01-30 TW TW097202031U patent/TWM350737U/zh not_active IP Right Cessation
- 2008-01-30 TW TW097103534A patent/TW200847001A/zh unknown
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008051051A1 (de) * | 2008-09-03 | 2010-03-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von Information in einem Fahrzeug |
WO2013092288A1 (de) | 2011-12-22 | 2013-06-27 | Bauhaus-Universität Weimar | Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige |
DE102011056940A1 (de) | 2011-12-22 | 2013-06-27 | Bauhaus Universität Weimar | Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige |
DE102014111749A1 (de) * | 2014-08-18 | 2016-02-18 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zum Steuern eines technischen Gerätes |
Also Published As
Publication number | Publication date |
---|---|
TW200847001A (en) | 2008-12-01 |
WO2008094791A3 (en) | 2008-11-27 |
CN101636711A (zh) | 2010-01-27 |
HK1109023A2 (en) | 2008-05-30 |
US20080036743A1 (en) | 2008-02-14 |
AU2008210864A1 (en) | 2008-08-07 |
US9292111B2 (en) | 2016-03-22 |
WO2008094791A2 (en) | 2008-08-07 |
TWM350737U (en) | 2009-02-11 |
AU2008100085A4 (en) | 2008-03-06 |
JP2010517197A (ja) | 2010-05-20 |
EP2115560A2 (de) | 2009-11-11 |
WO2008094791A9 (en) | 2008-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202008001338U1 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE112007000278T5 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
US9239673B2 (en) | Gesturing with a multipoint sensing device | |
DE102013111978B4 (de) | Identifikation und Verwendung von Gesten in der Nähe eines Sensors | |
DE202005021492U1 (de) | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung | |
DE112010003602T5 (de) | System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät | |
DE202007014957U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
DE202008000261U1 (de) | Vielfach-Berührungsdatenfussionssystem | |
DE112009001281T5 (de) | Navigieren zwischen Aktivitäten in einem Computergerät | |
DE202007013923U1 (de) | Mehrfachereignis-Eingabesystem | |
DE202009018624U1 (de) | Berührungsereignismodell | |
DE202007018368U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
DE202009018283U1 (de) | Karten-Metapher für Aktivitäten in einem Rechengerät | |
DE202009018404U1 (de) | Erweiterter berührungsempfindlicher Steuerbereich für ein elektronisches Gerät | |
DE202017105614U1 (de) | Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools | |
Corsten et al. | Use the Force Picker, Luke: Space-Efficient Value Input on Force-Sensitive Mobile Touchscreens | |
WO2014043275A1 (en) | Gesturing with a multipoint sensing device | |
AU2016238971B2 (en) | Gesturing with a multipoint sensing device | |
AU2014201419B2 (en) | Gesturing with a multipoint sensing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20080814 |
|
R150 | Utility model maintained after payment of first maintenance fee after three years |
Effective date: 20110209 |
|
R151 | Utility model maintained after payment of second maintenance fee after six years |
Effective date: 20140130 |
|
R152 | Utility model maintained after payment of third maintenance fee after eight years | ||
R071 | Expiry of right |