DE202007018420U1 - Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt - Google Patents
Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt Download PDFInfo
- Publication number
- DE202007018420U1 DE202007018420U1 DE202007018420U DE202007018420U DE202007018420U1 DE 202007018420 U1 DE202007018420 U1 DE 202007018420U1 DE 202007018420 U DE202007018420 U DE 202007018420U DE 202007018420 U DE202007018420 U DE 202007018420U DE 202007018420 U1 DE202007018420 U1 DE 202007018420U1
- Authority
- DE
- Germany
- Prior art keywords
- gesture
- application
- multifunction device
- touch screen
- portable multifunction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1431—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Abstract
Tragbare
Multifunktionsvorrichtung, umfassend:
eine Berührungsbildschirmanzeige;
einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden;
Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen:
Anweisungen zum Anzeigen einer Anwendung; und
Anweisungen zum Durchführen einer vordefinierten Operation in Antwort auf jede Geste eines Satzes von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vordefinierten Modus ist.
eine Berührungsbildschirmanzeige;
einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden;
Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen:
Anweisungen zum Anzeigen einer Anwendung; und
Anweisungen zum Durchführen einer vordefinierten Operation in Antwort auf jede Geste eines Satzes von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vordefinierten Modus ist.
Description
- TECHNISCHES GEBIET
- Die offenbarten Ausführungsformen beziehen sich im Allgemeinen auf tragbare elektronische Vorrichtungen und genauer auf tragbare elektronische Vorrichtungen, die ähnliche Operationen in Antwort auf unterschiedliche Fingergesten durchführen.
- HINTERGRUND
- Da tragbare elektronische Vorrichtungen kompakter werden und die Anzahl an Funktionen, die durch eine gegebene Vorrichtung durchgeführt wird, zunimmt, ist es zu einer bedeutenden Herausforderung geworden, eine Benutzerschnittstelle zu entwerfen, die es Benutzern erlaubt, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders bedeutend für handgehaltene tragbare elektronische Vorrichtungen, die viel kleinere Bildschirme als Desktop- oder Laptop-Computer haben.
- Ein bedeutender Aspekt des Messens der Benutzerfreundlichkeit einer Benutzerschnittstelle ist, ob die Benutzerschnittstelle verschiedene Arten von Benutzeraktionen akzeptiert, die derselben Funktion entsprechen. Verschiedene Benutzer können verschiedene Benutzeraktionen auf der Grundlage ihrer eigenen Vorlieben oder Gewohnheiten wählen. Ein Benutzer kann verschiedene Benutzeraktionen zu unterschiedlichen Zeiten wählen, abhängig davon, welche Benutzeraktion bequemer als andere zu einem bestimmten Augenblick ist.
- Aber viele herkömmliche Benutzerschnittstellen, wie etwa diejenigen, die physische Drucktasten umfassen, haben oft keine solche Unflexibilität. Alle Benutzer müssen mit den Benutzerschnittstellen auf eine bestimmte Weise interagieren, um die gewünschten Ergebnisse zu erhalten, egal ob die Art und Weise entgegengesetzt den Vorlieben oder Gewohnheiten der meisten Benutzer ist. Wenn sie mit dem zeitaufwändigen Erfordernis verbunden wird, sich diese spezifische Art und Weisen zu merken, und der Schwierigkeit bei der Aktivierung einer gewünschten Drucktaste, wird solche Unflexibilität zunehmend frustrierender für die meisten Benutzer.
- Dementsprechend besteht ein Bedürfnis für tragbare elektronische Vorrichtungen mit flexibleren und intuitiveren Benutzerschnittstellen, die ähnliche Operationen in Antwort auf unterschiedliche Fingergesten durchführen.
- ZUSAMMENFASSUNG
- Die obigen Unzulänglichkeiten und andere Probleme, die mit bekannten tragbaren Vorrichtungen verbunden sind, werden durch die offenbarte Vorrichtung verringert oder beseitigt. In manchen Ausführungsformen hat die tragbare elektronische Vorrichtung eine berührungsempfindliche Anzeige (auch bekannt als „Berührungsbildschirm" oder „Berührungsbildschirmanzeige") mit einer grafischen Benutzerschnittstelle (GUI), einen oder mehrere Prozessoren, Speicher und ein oder mehrere Module, Programme oder Anweisungssätze, die im Speicher gespeichert sind, um mehrere Funktionen durchzuführen. In manchen Ausführungsformen interagiert der Benutzer mit der GUI primär durch Fingerkontakte und Gesten auf der berührungsempfindlichen Anzeige. Zum Durchführen von Operationen können Anweisungen in einem computer-lesbaren Speichermedium oder anderem Computerprogrammprodukt enthalten sein, das zur Ausführung durch einen oder mehr Prozessoren konfiguriert ist.
- Ein Aspekt der Erfindung betrifft eine tragbare elektronische Vorrichtung. Die Vorrichtung umfasst eine Berührungsbildschirmanzeige, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme. Das eine oder die mehreren Programme sind im Speicher gespeichert und so konfiguriert, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden. Das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer Anwendung; und Anweisungen zum Durchführen einer vorbestimmten Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vorbestimmten Modus ist.
- Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt, das ein computer-lesbares Speichermedium und einen Computerprogrammmechanismus (z. B. ein oder mehrere Computerprogramme) umfasst, die darin eingebettet sind. Der Computerprogrammmechanismus umfasst Anweisungen, die, wenn sie durch eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, die Vorrichtung dazu veranlassen: eine Anwendung anzuzeigen; und wenn die Anwendung in einem vordefinierten Modus ist, eine vordefinierte Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige durchzuführen.
- Ein weiterer Aspekt der Erfindung betrifft eine grafische Benutzerschnittstelle (GUI) auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige. Die GUI zeigt eine Anwendung in einem vordefinierten Modus an und die Anwendung führt eine vordefinierte Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige durch.
- Ein weiterer Aspekt der Erfindung betrifft eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige, umfassend: Mittel zum Anzeigen einer Anzeige; und Mittel zum Durchführen einer vorbestimmten Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vorbestimmten Modus ist.
- Somit stellt die Erfindung eine transparente und intuitive Benutzerschnittstelle zur Verfügung, die verschiedene Operationen in Antwort auf unterschiedliche Fingergesten auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige durchführt.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Für ein besseres Verständnis der eben erwähnten Ausführungsformen der Erfindung sowie zusätzlicher Ausführungen davon sollte auf die Beschreibung der Ausführungsformen unten Bezug genommen werden, im Zusammenhang mit den folgenden Zeichnungen, in denen gleiche Bezugszeichen auf entsprechende Teile überall in den Figuren Bezug nehmen.
-
1 ist ein Blockdiagramm, das eine tragbare elektronische Vorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit manchen Ausführungsformen darstellt. -
2 stellt eine tragbare elektronische Vorrichtung dar, die einen Berührungsbildschirm hat, in Übereinstimmung mit manchen Ausführungsformen. -
3 stellt eine beispielhafte Benutzerschnittstelle zum Entriegeln einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar. -
4 stellt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar. -
5 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten von Alben in Übereinstimmung mit manchen Ausführungsformen dar. -
6 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten eines Albums in Übereinstimmung mit manchen Ausführungsformen dar. -
7 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten vergrößerter Bilder in einem Album in Übereinstimmung mit manchen Ausführungsformen dar. -
8A bis8D stellen beispielhafte Benutzerschnittstellen für einen Browser in Übereinstimmung mit manchen Ausführungsformen dar. -
9 ist ein verallgemeinertes Flussdiagramm, das einen Prozess zum Durchführen einer vordefinierten Operation auf das Detektieren mehrerer Arten von Benutzergesten auf dem Berührungsbildschirm der tragbaren elektronischen Vorrichtung hin in Übereinstimmung mit manchen Ausführungsformen darstellt. - BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
- Es wird jetzt im Detail auf Ausführungsformen Bezug genommen, von denen Beispiele in den angehängten Zeichnungen illustriert sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der Erfindung zu verschaffen. Es wird jedoch für den Durchschnittsfachmann offensichtlich werden, dass die Erfindung ohne diese spezifischen Details praktiziert werden kann. In anderen Fällen wurden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben, um die Aspekte der Ausführungsformen nicht unnötigerweise zu verschleiern.
- Es wird auch verstanden werden, dass obwohl die Begriffe erster, zweiter, usw. hier verwendet werden mögen, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt werden sollten. Diese Begriffe werden nur verwendet, um ein Element vom anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste eine zweite Geste genannt werden, und in ähnlicher Weise könnte eine zweite Geste eine erste Geste genannt werden, ohne vom Bereich der vorliegenden Erfindung abzuweichen.
- Die Terminologie, die in der Beschreibung der Erfindung hier verwendet wird, dient nur dem Beschreiben bestimmter Ausführungsformen und soll die Erfindung nicht beschränken. Wie sie in der Beschreibung der Erfindung und den angehängten Ansprüchen verwendet werden, sollen die Singularformen „ein"/"eine" und „der"/"die"/"das" auch die Pluralformen einschließen, es sei denn, der Kontext zeigt klar etwas anderes an. Es wird auch verstanden werden, dass der Ausdruck „und/oder", wie er hier verwendet wird, auf alle und jede möglichen Kombinationen aus einem oder mehreren der assoziierten aufgelisteten Gegenstände Bezug nimmt und sie umfasst. Es wird weiterhin verstanden werden, dass die Ausdrücke „umfasst" und/oder „umfassend", wenn sie in dieser Schrift verwendet werden, die Anwesenheit von erwähnten Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen und/oder Komponenten spezifizieren, aber nicht die Anwesenheit oder Hinzufügung von einem oder mehreren Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon ausschließen.
- Wie er hier verwendet wird, kann der Ausdruck „wenn" so ausgelegt werden, dass er „immer wenn" oder „auf ... hin" oder „in Antwort auf Bestimmung" oder „in Antwort auf Detektieren" bedeutet, abhängig vom Kontext. Ähnlich kann der Satz „wenn bestimmt wird" oder „wenn [eine angegebene Bedingung oder ein Ereignis] detektiert wird" so ausgelegt werden, dass er „auf Bestimmen hin" oder „in Antwort auf Bestimmen" oder „auf Detektieren [die angegebene Bedingung oder das Ereignis]" oder „in Antwort auf Detektieren [angegebene Bedingung oder Ereignis]" bedeutet, abhängig vom Kontext.
- Ausführungsformen einer tragbaren elektronischen Vorrichtung, von Benutzerschnittstellen für solche Vorrichtungen und assoziierte Prozesse zum Verwenden solcher Vorrichtungen werden beschreiben. In manchen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie etwa ein Mobiltelefon, das auch andere Funktionen enthält, wie etwa PDA und/oder Musikspielfunktionen.
- Die Benutzerschnittstelle kann ein physisches Klickrad zusätzlich zu einem Berührungsbildschirm umfassen, oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird. Ein Klickrad ist eine physische Benutzerschnittstellenvorrichtung, die Navigationsbefehle auf der Grundlage einer Winkelverschiebung des Rades oder eines Kontaktpunktes mit dem Rad durch einen Benutzer der tragbaren elektronischen Vorrichtung zur Verfügung stellt. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl entsprechend der Auswahl aus einem oder mehreren Gegenständen zur Verfügung zu stellen, z. B. wenn der Benutzer der tragbaren elektronischen Vorrichtung mindestens einen Teil des Rades oder den Mittelpunkt des Rades herunterdrückt. Alternativ kann das Unterbrechen des Kontaktes mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der Auswahl entspricht. Der Einfachheit halber wird in der Diskussion, die folgt, eine tragbare elektronische Vorrichtung, die einen Berührungsbildschirm umfasst, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass manche Benutzerschnittstellen und assoziierte Prozesse auf andere Vorrichtungen, wie etwa Personal Computer und Laptop-Computer angewendet werden können, die eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen umfassen können, wie etwa ein physisches Klickrad, eine physische Tastatur, eine Maus und/oder einen Joystick.
- Die Vorrichtung unterstützt eine Reihe von Anwendungen, wie etwa eine oder mehrere aus den folgenden: eine Telefonanwendung, eine Videokonferenzanwendung, eine Emailanwendung, eine Sofortmitteilungsanwendung, eine Blockanwendung, eine Fotoverwaltungsanwendung, eine Digitalkameraanwendung, eine Digitalvideokameraanwendung, eine Webbrowseranwendung, eine Digitalmusikspieleranwendung und/oder eine Digitalvideospieleranwendung.
- Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können mindestens eine gemeinsame physische Benutzerschnittstellevorrichtung verwenden, wie etwa den Berührungsbildschirm. Eine oder mehrere Funktionen des Berührungsbildschirms sowie entsprechende Funktionen, die auf der Vorrichtung angezeigt werden, können von einer Anwendung auf die nächste und/oder innerhalb einer entsprechenden Anwendung angepasst und/oder variiert werden. Auf diese Weise kann eine gemeinsame physische Architektur (wie etwa ein Berührungsbildschirm) der Vorrichtung eine Reihe von Anwendungen mit Benutzerschnittstellen unterstützen, die intuitiv und transparent sind.
- Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen umfassen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standardkonfigurationen von Symbolen auf den angezeigten Icons der Tastatur umfassen, wie etwa diejenigen, die in den US-Patentanmeldungen 11/459,606, „Tastaturen für tragbare elektronische Vorrichtungen" eingereicht am 24. Juli 2006, und 11/459,615 „Berührungsbildschirmtastaturen für tragbare elektronische Vorrichtungen", eingereicht am 24. Juli 2006, beschrieben sind, deren Inhalte hier per Verweis mit eingebunden werden. Die Tastaturausführungsformen können eine verringerte Anzahl an Icons (oder Softtasten) relativ zur Anzahl an Tasten in existierenden physischen Tastaturen umfassen, wie etwa derjenigen für eine Schreibmaschine. Dies kann es für Benutzer einfacher machen, eines oder mehrere Icons in der Tastatur auszuwählen, und somit eines oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können die angezeigten Icons in Übereinstimmung mit Benutzerak tionen modifiziert werden, wie etwa Auswählen eines oder mehrerer Icons und/oder eines oder mehrerer entsprechender Symbole. Eine oder mehrere Anwendungen auf der tragbaren elektronischen Vorrichtung können gemeinsame und/oder unterschiedliche Tastaturausführungsformen verwenden. Somit kann die verwendete Tastaturausführungsform mindestens auf manche der Anwendungen zugeschnitten werden. In manchen Ausführungsformen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel auf der Grundlage eines Wortbenutzungsverlaufs (Lexikographie, Jargon, individuelle Verwendung) des entsprechenden Benutzers. Manche der Tastaturausführungsformen können angepasst werden, um eine Wahrscheinlichkeit eines Benutzerfehlers zu verringern, wenn er eines oder mehrere Icons und somit eines oder mehrere Symbole auswählt, wenn er die Softtastaturausführungsformen benutzt.
- Die Aufmerksamkeit wird jetzt auf Ausführungsformen der Vorrichtung gelenkt.
1 ist ein Blockdiagramm, das eine tragbare elektronische Vorrichtung100 mit einer berührungsempfindlichen Anzeige112 in Übereinstimmung mit manchen Ausführungsformen darstellt. Die berührungsempfindliche Anzeige112 wird manchmal aus Gründen der Praktikabilität „Berührungsbildschirm" genannt. Die Vorrichtung100 kann einen Speicher102 umfassen (der ein oder mehrere computer-lesbare Speichermedien umfassen kann), eine Speichersteuerung122 , eine oder mehrere Prozessoreinheiten (CPUs)120 , eine Peripherieschnittstelle118 , RF-Schaltung108 , Audioschaltung110 , einen Lautsprecher111 , ein Mikrofon113 , ein Eingabe-/Ausgabe-(E/A)-Untersystem106 , andere Eingabe- oder Steuervorrichtungen116 und einen externen Port124 . Die Vorrichtung100 kann auch einen oder mehrere optische Sensoren164 umfassen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signalleitungen103 kommunizieren. - Es sollte erkannt werden, dass die Vorrichtung
100 nur ein Beispiel einer tragbaren elektronischen Vorrichtung100 ist, und dass die Vorrichtung100 mehr oder weniger Komponenten als gezeigt haben kann, zwei oder mehr Komponenten kombinieren kann oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten haben kann. Die verschiedenen Komponenten, die in1 gezeigt sind, können in Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, einschließlich einer oder mehrerer signalverarbeitender und/oder anwendungsspezifischer integrierter Schaltungen. - Der Speicher
102 kann Hochgeschwindigkeitslese- und -schreibspeicher umfassen und kann auch nicht-flüchtigen Speicher umfassen, wie etwa eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Halbleiterspeichervorrichtungen. Zugriff auf den Speicher102 durch andere Komponenten der Vorrichtung100 , wie etwa der CPU120 , und der Peripherieschnittstelle118 kann durch die Speichersteuerung122 gesteuert werden. - Die Peripherieschnittstelle
118 verbindet die Eingabe- und Ausgabeperipherien der Vorrichtung mit der CPU120 und dem Speicher102 . Der eine oder die mehreren Prozessoren120 lassen verschiedene Softwareprogramme und/oder Anweisungssätze, die im Speicher102 gespeichert sind, laufen oder führen sie aus, um verschiedene Funktionen für die Vorrichtung100 durchzuführen und Daten zu verarbeiten. - In manchen Ausführungsformen können die Peripherieschnittstelle
118 , die CPU und die Speichersteuerung122 auf einem einzigen Chip implementiert werden, wie etwa einem Chip104 . In manchen anderen Ausführungsformen können sie auf getrennten Chips implementiert sein. - Die RF-(Funkfrequenz)-Schaltung
108 empfängt und sendet RF-Signale, auch genannt elektromagnetische Signale. Die RF-Schaltung108 wandelt elektrische Signale in/aus elektromagnetische(n) Signale(n) um und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die e lektromagnetischen Signale. Die RF-Schaltung108 kann wohlbekannte Schaltung zum Durchführen dieser Funktionen umfassen, einschließlich – aber nicht beschränkt auf – ein Antennensystem, einen RF-Sendeempfänger, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen Digitalsignalprozessor, ein CODEC-Chipset, eine Benutzeridentitätsmodul-(SIM)-Karte, Speicher, usw. Die RF-Schaltung108 kann mit Netzwerken wie etwa dem Internet, kommunizieren, das auch World Wide Web (WWW) genannt wird, einem Intranet und/oder einem drahtlosen Netzwerk, wie etwa einem Mobiltelefonnetzwerk, einem drahtlosen lokalen Netzwerk (LAN) und/oder einem regionalen Netzwerk (MAN) und anderen Vorrichtungen durch drahtlose Kommunikation. Die drahtlose Kommunikation kann beliebige aus einer Mehrzahl von Kommunikationsstandards, Protokollen und Technologien verwenden, einschließlich – aber nicht beschränkt auf – das globale System für mobile Kommunikation (GSM), verbesserte Daten-GSM-Umgebung (EDGE), Breitband-Codeteilungsmehrfachzugang (WCDMA), Codeteilungsmehrfachzugang (CDMA), Zeitteilungsmehrfachzugang (TDMA), Bluetooth, Wireless Fidelity (WiFi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), Sprache über Internet Protocol (VoIP), Wi-MAX, ein Protokoll für Email, Sofortmitteilungen und/oder Kurznachrichtenservice (SMS), oder irgendein anderes geeignetes Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, die zum Zeitpunkt des Einreichens dieses Dokuments noch nicht entwickelt sind. - Die Audioschaltung
110 , der Lautsprecher111 und das Mikrofon112 liefern eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung100 . Die Audioschaltung110 empfängt Audiodaten von der Peripherschnittstelle118 , wandelt die Audiodaten in ein elektrisches Signal um und überträgt das elektrische Signal an den Lautsprecher111 . Der Lautsprecher111 wandelt das elektrische Signal in menschen-hörbare Schallwellen um. Die Audioschaltung110 empfängt auch elektrische Signale, die durch das Mikrofon112 aus Schallwellen umgewandelt wurden. Die Audioschaltung110 wandelt die elektrischen Signale in Audiodaten um und überträgt die Audiodaten an die Peripherieschnittstelle118 zur Verarbei tung. Audiodaten können erhalten werden vom und/oder übertragen werden an den Speicher102 und/oder die RF-Schaltung108 , durch die Peripherieschnittstelle118 . In manchen Ausführungsformen umfasst die Audioschaltung110 auch eine Kopfhörerbuchse (nicht dargestellt). Die Kopfhörerbuchse stellt eine Schnittstelle zwischen der Audioschaltung110 und entfernbaren Audio-Eingabe-/Ausgabeperipherien dar, wie etwa Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) und Eingabe (z. B. ein Mikrofon). - Das E/A-Untersystem
106 verbindet Eingabe-/Ausgabeperipherien mit der Vorrichtung100 , wie etwa den Berührungsbildschirm112 und andere Eingabe-/Steuerungsvorrichtungen116 mit der Peripherieschnittstelle118 . Das E/A-Untersystem106 kann eine Anzeigesteuerung156 und eine oder mehrere Eingabesteuerungen160 für andere Eingabe- oder Steuervorrichtungen umfassen. Die eine oder mehreren Eingabensteuerungen160 empfangen/senden elektrische Signal von/zu anderen Eingabe-/oder Steuervorrichtungen116 . Die anderen Eingabe-/Steuervorrichtungen116 können physische Tasten (z. B. Drucktasten, Wipptasten, usw.), Räder, Schieberschalter, Joysticks, Klickräder, usw., enthalten. In manchen alternativen Ausführungsformen können die Eingabesteuerung(en)160 mit irgendeinem (oder keinem) aus dem Folgenden verbunden sein: eine Tastatur, Infrarotport, USB-Port und eine Zeigevorrichtung, wie etwa eine Maus. Die eine oder mehreren Tasten (z. B.208 ,2 ) können eine Oben-/Untentaste zur Lautstärkesteuerung des Lautsprechers111 und/oder des Mikrofons113 umfassen. Die eine oder mehreren Tasten können eine Drucktaste (z. B.206 ,2 ) umfassen. Ein kurzer Druck der Drucktaste kann eine Verriegelung des Berührungsbildschirms112 deaktivieren oder einen Prozess starten, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entriegeln, wie in der US-Patentanmeldung 11/322,549 „Entriegeln einer Vorrichtung durch Durchführen von Gesten auf einem Entriegelungsbild", eingereicht am 23. Dezember 2005, beschrieben ist, die hiermit per Verweis mit eingebunden wird. Ein längeres Drücken auf die Drucktaste (z. B.106 ) kann den Strom zur Vorrichtung100 an- oder ausschalten. Der Benutzer kann eine Funktionalität einer oder mehrerer Tasten anpassen können. Der Berührungsbildschirm112 wird verwendet, um virtuelle oder Softtasten und eine oder mehrere Softtastaturen zu implementieren. - Der berührungsempfindliche Berührungsbildschirm
112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer zur Verfügung. Die Anzeigesteuerung156 empfängt und/oder sendet elektrische Signale vom/zum Berührungsbildschirm112 . Der Berührungsbildschirm112 zeigt dem Benutzer visuelle Ausgabe an. Die visuelle Ausgabe kann Grafik, Text, Icons, Video und irgendeine Kombination daraus (zusammen „Grafik" genannt) umfassen. In manchen Ausführungsformen können manche oder alle visuellen Ausgaben Benutzerschnittstellenobjekten entsprechen, deren weitere Details unten beschrieben werden. - Ein Berührungsbildschirm
112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder einen Sensorsatz, der Eingabe vom Benutzer auf der Grundlage eines haptischen und/oder Berührungskontaktes akzeptiert. Der Berührungsbildschirm112 und die Anzeigesteuerung156 (zusammen mit jeglichen assoziierten Modulen und/oder Anweisungssätzen im Speicher102 ) detektiert Kontakt (und jegliche Bewegung oder Unterbrechung des Kontakts) auf dem Berührungsbildschirm112 und wandelt den detektierten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Icons, Webseiten oder Bilder) um, die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen einem Berührungsbildschirm112 und dem Benutzer einem Finger des Benutzers. - Der Berührungsbildschirm
112 kann LCD-(Flüssigkristallanzeige)-Technologie verwenden, oder LPD-(Licht emittierende Polymeranzeige)-Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden können. Der Berührungsbildschirm112 und die Anzeigesteuerung156 können Kontakt und jegliche Bewegung oder Unterbrechung davon detektieren, unter Verwendung irgendeiner aus einer Mehrzahl von Berührungsabtasttechnologien, die jetzt bekannt sind oder später entwickelt werden, einschließlich – aber nicht beschränkt auf – kapazitive, Widerstands-, Infrarot- und Oberflächenakustikwellentechnologien, sowie andere Näherungssensorfelder oder andere Elemente zum Bestimmen eines oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm112 . Eine berührungsempfindliche Anzeige kann in manchen Ausführungsformen des Berührungsbildschirms112 analog zu den mehrfachberührungsempfindlichen Tablets sein, die in den folgenden US-Patenten beschrieben sind:6,323,846 (Westerman et al.),6,570,557 (Westerman et al.) und/oder6,677,932 (Westerman) und/oderUS-Patentveröffentlichung 2002/0015024A1 112 zeigt jedoch visuelle Ausgabe von der tragbaren elektronischen Vorrichtung100 an, während berührungsempfindliche Tablets keine visuelle Ausgabe liefern. Der Berührungsbildschirm112 kann z. B. eine Auflösung über 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm im Anzeigesystem eine Auflösung von ungefähr 168 dpi. Der Benutzer kann Kontakt mit dem Berührungsbildschirm112 herstellen, indem er irgendein geeignetes Objekt oder Anhängsel verwendet, wie etwa einen Stift, einen Finger, usw. In manchen Ausführungsformen ist die Benutzerschnittstelle so entworfen, dass sie primär mit fingerbasierten Kontakten und Gesten arbeitet, was viel weniger präzise als stiftbasierte Eingabe ist, wegen des größeren Kontaktgebiets eines Fingers auf dem Berührungsbildschirm. In manchen Ausführungsformen übersetzt die Vorrichtung die rohe fingerbasierte Eingabe in eine präzise Zeiger-/Cursorposition oder einen Befehl zum Durchführen der Aktionen, die vom Benutzer gewünscht sind. - Eine berührungsempfindliche Anzeige kann in manchen Ausführungsformen des Berührungsbildschirms
112 so wie in den folgenden Anmeldungen beschrieben sein: (1) US-Patentanmeldung Nr. 11/381,313, „Mehrpunkt Berührungsoberflächensteuerung", eingereicht am 2. Mai 2006; (2) US-Patentanmeldung Nr. 10/840,862, „Mehrpunkt-Berührungsbildschirm", eingereicht am 6. Mai 2005; (3) US-Patentanmeldung Nr. 10/903,964, „Gesten für berührungsempfindliche Eingabevorrichtungen", eingereicht 30. Juli 2004; (4) US-Patentanmeldung Nr. 11/048,264, „Gesten für berührungsempfindliche Eingabevorrichtungen", eingereicht am 31. Januar 2005; (5) US-Patentanmeldung Nr. 11/038,590, „Modusbasierte grafische Benutzerschnittstellen für berührungsempfindliche Eingabevorrichtungen", eingereicht am 18. Januar 2005; (6) US-Patentanmeldung Nr. 11/228,758, „Virtuelle Eingabevorrichtungsplatzierung auf einer Berührungsbildschirm-Benutzerschnittstelle", eingereicht am 16. September 2005; (7) US-Patentanmeldung Nr. 11/228,700, „Operation eines Computers mit einer Berührungsbildschirmschnittstelle", eingereicht am 16. September 2005; (8) US-Patentanmeldung Nr. 11/228,737, „Aktivieren virtueller Tasten einer virtuellen Berührungsbildschirmtastatur", eingereicht am 16. September 2005; und (9) US-Patentanmeldung Nr. 11/367,749, „Multifunktionale handgehaltene Vorrichtung", eingereicht am 3. März 2006. All diese Anmeldungen werden hier per Verweis mit eingebunden. - In manchen Ausführungsformen kann die Vorrichtung
100 zusätzlich zum Berührungsbildschirm ein Berührungsfeld (nicht dargestellt) haben, um bestimmte Funktionen zu aktivieren oder zu deaktivieren. In manchen Ausführungsformen ist das Berührungsfeld ein berührungsempfindliches Gebiet der Vorrichtung, das im Unterschied zum Berührungsbildschirm keine visuelle Ausgabe anzeigt. Das Berührungsfeld kann eine berührungsempfindliche Oberfläche sein, die vom Berührungsbildschirm112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die durch den Berührungsbildschirm gebildet wird. - In manchen Ausführungsformen kann die tragbare elektronische Vorrichtung
100 ein physisches oder virtuelles Klickrad als eine Eingabesteuerungsvorrichtung116 umfassen. Ein Benutzer kann navigieren zwischen und interagieren mit einem oder mehreren grafischen Objekten (im Weiteren Icons genannt), die auf dem Berührungsbildschirm112 angezeigt werden, durch Rotieren des Klickrads oder durch Bewegen eines Kontaktpunkts mit dem Klickrad (z. B. wo die Größe der Bewegung des Kontaktpunkts durch seine Winkelversetzung in Bezug auf einen Mittelpunkt des Klickrads gemessen wird). Das Klickrad kann auch verwendet werden, um ein oder mehrere angezeigte Icons anzuwählen. Zum Beispiel kann der Benutzer auf mindestens einem Teil des Klickrads eine assoziierte Taste herunterdrücken. Benutzerbefehle und Navigationsbefehle, die durch den Benutzer über das Klickrad geliefert werden, können durch eine Eingabesteuerung160 sowie ein oder mehrere der Module und/oder Anweisungssätze im Speicher102 verarbeitet werden. Für ein virtuelles Klickrad können das Klickrad und die Klickradsteuerung Teil des Berührungsbildschirms112 bzw. der Anzeigesteuerung156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein undurchsichtiges oder semitransparentes Objekt sein, das auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung erscheint und verschwindet. In manchen Ausführungsformen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt und durch Benutzerkontakt mit dem Berührungsbildschirm bedient. - Die Vorrichtung
100 umfasst auch ein Stromversorgungssystem162 zum Versorgen der verschiedenen Komponenten mit Strom. Das Stromversorgungssystem162 kann ein Stromversorgungsverwaltungssystem umfassen, eine oder mehrere Energiequellen (z. B. eine Batterie, Wechselstrom (AC)), ein Aufladesystem, eine Stromunterbrechungsdetektionsschaltung, einen Stromumwandler oder Inverter, einen Stromversorgungsstatusindikator (z. B. eine Licht emittierende Diode (LED)) und jegliche anderen Komponenten, die mit der Erzeugung, Verwaltung und Verteilung von Strom in tragbaren elektronischen Vorrichtungen assoziiert sind. - Die Vorrichtung
100 kann auch einen oder mehrere optische Sensoren164 umfassen.1 zeigt einen optischen Sensor, der mit einer optischen Sensorsteuerung158 im E/A-Untersystem106 verbunden ist. Der optische Sensor164 kann ladungsgebundene Vorrichtung (CCD) oder komplementäre Metalloxidhalbleiter-(CMOS)-Fototransistoren umfassen. Der optische Sensor164 empfängt Licht aus der Umgebung, projiziert durch eine oder mehrere Linsen, und wandelt das Licht in Daten um, die ein Bild darstellen. Im Zusammenhang mit einem Bilderstellungsmodul143 (manchmal Kameramodul genannt) kann der optische Sensor164 stehende Bilder oder Video aufnehmen. In manchen Ausführungsformen befindet sich der optische Sensor auf der Rückseite der Vorrichtung100 , gegenüber der Berührungsbildschirmanzeige112 auf der Vorderseite der Vorrichtung, so dass die Berührungsbildschirmanzeige als Sucher für entweder Still-/und/oder Videobildaufnahme verwendet werden kann. In manchen Ausführungsformen befindet sich ein optischer Sensor auf der Vorderseite der Vorrichtung, so dass das Bild des Benutzers für Videokonferenzen erhalten werden kann, während der Benutzer die anderen Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In manchen Ausführungsformen kann die Position des optischen Sensors164 durch den Benutzer verändert werden (z. B. durch Rotieren der Linse und des Sensors im Vorrichtungsgehäuse), so dass ein einziger optischer Sensor164 zusammen mit der Berührungsbildschirmanzeige sowohl für Videokonferenzen als auch für stehende und/oder Videobildaufnahme verwendet werden kann. - Die Vorrichtung
100 kann auch einen oder mehrere Näherungssensoren166 umfassen.1 zeigt einen Näherungssensor166 , der mit der Peripherieschnittstelle118 verbunden ist. Alternativ kann der Näherungssensor166 mit einer Eingabesteuerung160 im E-/A-Untersystem106 verbunden sein. Der Näherungssensor166 kann so arbeiten, wie beschrieben in den US-Patentanmeldungen Nr. 11/241,839 „Nähedetektor in handgehaltener Vorrichtung", eingereicht am 30. September 2005, und 11/240,788 „Nähedetektor in handgehaltener Vorrichtung", eingereicht am 30. September 2005, die hiermit per Referenz mit eingebunden werden. In manchen Ausführungsformen schaltet der Näherungssensor den Berührungsbildschirm112 aus und deaktiviert ihn, wenn die Multifunktionsvorrichtung nahe des Ohrs des Benutzers platziert wird (z. B. wenn der Benutzer einen Telefonanruf macht). In manchen Ausführungsformen lässt der Näherungssensor den Bildschirm aus, wenn die Vorrichtung in der Tasche, Handtasche oder einer anderen dunklen Umgebung ist, um unnötige Batterieentleerung zu verhindern, wenn die Vorrichtung sich in einem verriegelten Zustand befindet. - In manchen Ausführungsformen können die Softwarekomponenten, die im Speicher
102 gespeichert sind, ein Betriebssystem126 umfassen, ein Kommunikationsmodul (oder einen Anweisungssatz)128 , ein Kontakt-Bewegungsmodul (oder einen Anweisungssatz)130 , ein Grafikmodul (oder einen Anweisungssatz)132 , ein Texteingabemodul (oder einen Anweisungssatz)134 , ein globales Positionssystem-(GPS)-Modul (oder einen Anweisungssatz)135 und Anwendungen (oder einen Anweisungssatz)136 . - Das Betriebssystem
126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie etwa VxWorks) umfasst verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichervorrichtungssteuerung, Stormversorgungsverwaltung, usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten. - Das Kommunikationsmodul
128 ermöglicht Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Ports124 und umfasst auch verschiedene Softwarekomponenten zum Handhaben von Daten, die durch die RF-Schaltung108 und/oder den externen Port124 empfangen werden. Der externe Port124 (z. B. universeller serieller Bus (USB), FIREWIRE, usw.) ist dazu angepasst, direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.) zu verbinden. In manchen Ausführungsformen ist der externe Port ein Multigin-(30-Pin)-Stecker, der der gleiche ist oder ähnlich zu und/oder kompatibel mit dem 30-Pin-Steckder, der auf den iPod-(Handelsmarke von Apple Computer, Inc.)-Geräten verwendet wird. - Das Kontakt-/Bewegungsmodul
130 kann Kontakt mit dem Berührungsbildschirm112 (zusammen mit der Anzeigesteuerung156 ) und anderen berührungsempfind lichen Vorrichtungen (z. B. einem Berührungsfeld oder physischen Klickrad) detektieren. Das Kontakt-/Bewegungsmodul130 umfasst verschiedene Softwarekomponenten zum Durchführen verschiedener Operationen, die sich auf Kontaktdetektion beziehen, wie etwa Bestimmen, ob Kontakt aufgetreten ist, Bestimmen, ob es Bewegung des Kontakts gibt und Nachverfolgen der Bewegung über den Berührungsbildschirm112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen der Bewegung des Kontaktpunkts kann Bestimmen von Schnelligkeit (Größe), Geschwindigkeit (Größe und Richtung) und/oder einer Beschleunigung (eine Änderung in Größe und/oder Richtung) des Kontaktpunkts umfassen. Diese Operationen können auf einzelne Kontakte (z. B. Ein-Finger-Kontakte) oder auf mehrere gleichzeitige Kontakte (z. B. „Mehrfachberührung"/Mehrfingerkontakte) angewendet werden. In manchen Ausführungsformen detektieren das Kontakt-/Bewegungsmodul130 und die Anzeigesteuerung156 auch Kontakt auf einem Kontaktfeld. In manchen Ausführungsformen detektieren das Kontakt-/Bewegungsmodul130 und die Steuerung160 Kontakt auf einem Klickrad116 . - Das Grafikmodul
132 umfasst verschiedene bekannte Softwarekomponenten zum Darstellen und Anzeigen von Grafik auf dem Berührungsbildschirm112 , einschließlich Komponenten zum Ändern der Helligkeit von Grafiken, die angezeigt werden. So wie er hier verwendet wird, umfasst der Ausdruck „Grafik" jedes Objekt, das dem Benutzer angezeigt werden kann, einschließlich ohne Beschränkung Text, Webseiten, Icons (wie etwa Benutzerschnittstellenobjekte einschließlich Softtasten), digitale Bilder, Videos, Animationen und Ähnliches. - Das Texteingabemodul
134 , das eine Komponente des Grafikmoduls132 sein kann, liefert Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen (z. B. Kontakte137 , Email-Clients140 , IM141 , Blogging142 , Browser147 und jegliche andere Anwendung, die Texteingabe benötigt). - Das GPS-Modul
135 bestimmt die Position der Vorrichtung und liefert diese Information zur Verwendung in verschiedenen Anwendungen (z. B. an das Telefon138 zur Verwendung in positionsbasiertem Wählen an die Kamera143 und/oder den Blogger142 als Bild-/Videometadaten, und an Anwendungen, die positionsbasierte Dienste liefern, wie etwa Wetterwidgets, örtliche Gelbe-Seiten-Widgets und Karten-Navigationswidgets). - Die Anwendung
136 kann die folgenden Module (oder Anweisungssätze) oder eine Untermenge oder eine Obermenge davon umfassen: - • ein Kontaktemodul
137 (manchmal Adressbuch oder Kontaktliste genannt); - • ein Telefonmodul
138 ; - • ein Videokonferenzmodul
139 ; - • ein Email-Client-Modul
140 ; - • ein Sofort-Mitteilungs-(IM)-Modul
141 ; - • ein Blogging-Modul
142 , - • ein Kameramodul
143 für stehende- und/oder Videobilder; - • ein Bildverwaltungsmodul
144 ; - • ein Videospielermodul
145 ; - • ein Musikspielermodul
146 ; - • ein Browsermodul
147 ; - • ein Kalendermodul
148 ; - • Widgetmodule
149 , die Wetter-Widget149-1 , Aktien-Widget149-2 , Taschenrechner-Widget149-3 , Wecker-Widget149-4 , Wörterbuch-Widget149-5 und andere Widgets enthalten können, die durch den Benutzer erhalten werden, sowie benutzererzeugte Widgets149-6 ; - • Widget-Erzeugermodul
150 zum Erstellen benutzererzeugter Widgets149-6 ; und/oder - • Suchmodul
151 . - Beispiele für andere Anwendungen
136 , die im Speicher102 gespeichert werden können, umfassen ein Memofeld und andere Textverarbeitungsanwendungen, JAVA-unterstützte Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachwiedergabe. - Im Zusammenhang mit dem Berührungsbildschirm
112 , der Anzeigesteuerung156 , dem Kontaktmodul130 , dem Grafikmodul132 , dem Texteingabemodul134 und dem Kameramodul143 kann das Bildverwaltungsmodul144 verwendet werden, um stehende und/oder Videobilder anzuordnen, zu modifizieren oder sonst zu manipulieren, etikettieren, löschen, darzustellen (z. B. in einer digitalen Diaschau oder einem Album) und zu speichern. Ausführungsformen von Benutzerschnittstellen und assoziierten Prozessen, die das Bildverwaltungsmodul144 verwenden, werden unten weiter beschrieben. - Im Zusammenhang mit der RF-Schaltung
108 , dem Berührungsbildschirm112 , der Anzeigesystemsteuerung156 , dem Kontaktmodul130 , dem Grafikmodul132 und dem Texteingabemodul134 kann das Browser-Modul147 verwendet werden, um im Internet zu surfen, einschließlich suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon, sowie Anhängen oder anderen Dateien, die mit Webseiten verbunden sind. Ausführungsformen von Benutzerschnittstellen und assoziierten Prozessen, die das Browser-Modul147 verwenden, werden unten weiter beschrieben. - Man beachte, dass die oben identifizierten Module und Anwendungen (einschließlich dem Bildverwaltungsmodul
144 und dem Browser-Modul147 ) einem Anweisungssatz zum Durchführen einer oder mehreren oben beschriebenen Funktionen entsprechen. Diese Module (d. h. Anweisungssätze) müssen nicht als getrennte Softwareprogramme, Prozeduren oder Module implementiert werden, und somit können verschiedene Untermengen dieser Module in verschiedenen Ausführungsformen kombiniert werden oder anderweitig neu angeordnet werden. In manchen Ausführungsformen kann der Speicher102 eine Untermenge der Module und Da tenstrukturen speichern, die oben identifiziert wurden. Weiterhin kann der Speicher zusätzliche Module und Datenstrukturen speichern, die nicht oben beschrieben wurden. - In manchen Ausführungsformen ist die Vorrichtung
100 eine Vorrichtung, wo eine Operation eines vordefinierten Funktionssatzes auf der Vorrichtung exklusiv durch einen Berührungsbildschirm112 und/oder ein Berührungsfeld durchgeführt wird. Unter Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als die primäre Eingabe-/Steuervorrichtung zum Betrieb der Vorrichtung100 kann die Anzahl an physischen Eingabe-/Steuervorrichtungen (wie etwa Drucktasten, Räder und Ähnliches) auf der Vorrichtung100 verringert werden. - Der vordefinierte Satz an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld durchgeführt werden können, umfasst Navigation zwischen Benutzerschnittstellen. In manchen Ausführungsformen navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung
100 zu einem Haupt-, Start- oder Wurzelmenü, von irgendeiner Benutzerschnittstelle, die auf der Vorrichtung100 angezeigt sein mag. In solchen Ausführungsformen kann das Berührungsfeld eine „Menütaste" genannt werden. In manchen anderen Ausführungsformen kann die Menütaste eine physische Drucktaste oder eine andere physische Eingabe-/Steuervorrichtung anstelle eines Berührungsfelds sein. -
2 stellt eine tragbare elektronische Vorrichtung100 dar, die einen Berührungsbildschirm112 hat, in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm kann eine oder mehrere Grafiken anzeigen. In dieser Ausführungsform sowie in anderen, die unten beschrieben werden, kann ein Benutzer eine oder mehrere Grafiken anwählen, indem er Kontakt mit der Grafik herstellt oder sie berührt, z. B. mit einem oder mehreren Fingern102 (nicht maßstabsgetreu in der Figur gezeichnet) oder einem Stift (nicht in der Figur gezeigt). In manchen Ausführungsformen geschieht die Anwahl einer oder mehrerer Grafi ken, wenn der Benutzer den Kontakt mit der einen oder den mehreren Grafiken unterbricht. In manchen Ausführungsformen kann der Kontakt eine Geste umfassen, wie etwa ein oder mehrere Tippen, ein oder mehrere Streichen (z. B. von links nach rechts oder rechts nach links oder hin und her in beide Richtungen; nach oben oder nach unten, oder nach oben und nach unten) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, nach oben und/oder nach unten), der den Kontakt mit der Vorrichtung100 hergestellt hat. In manchen Ausführungsformen kann ein unabsichtlicher Kontakt mit einer Grafik die Grafik nicht auswählen. Zum Beispiel kann eine Streichgeste, die über ein Anwendungsicon streicht, die entsprechende Anwendung nicht anwählen, wenn die Geste, die der Anwahl entspricht, ein Tippen ist. Mit anderen Worten interpretiert die tragbare elektronische Vorrichtung100 die Bedeutung einer Geste und handelt entsprechend, nachdem sie berücksichtigt, welche Anwendung oder welches Modul im Moment verwendet wird. - Die Vorrichtung
100 kann auch eine oder mehrere physische Tasten, wie etwa eine „Start"- oder Menütaste umfassen. Wie vorher beschrieben, kann die Menütaste204 verwendet werden, um zu irgendeiner Anwendung136 in einem Satz von Anwendungen zu navigieren, die auf der Vorrichtung100 ausgeführt werden können. Alternativ ist in manchen Ausführungsformen die Menütaste als eine Softtaste in einer GUI im Berührungsbildschirm112 implementiert. - In einer Ausführungsform umfasst die Vorrichtung
100 einen Berührungsbildschirm112 , eine Menütaste204 , eine Drucktaste206 zum An- und Ausschalten der Vorrichtung und Verriegeln der Vorrichtung und Lautstärkeanpassungstaste(n)208 . Die Drucktaste206 kann verwendet werden, um die Stromversorgung zur Vorrichtung an-/auszuschalten durch Herunterdrücken der Taste und Halten der Taste im heruntergedrückten Zustand während eines vordefinierten Zeitintervalls; um die Vorrichtung zu verriegeln, durch Herunterdrücken der Taste und Auslassen der Taste, bevor das vorbestimmte Zeitintervall abgelaufen ist; und/oder um die Vorrichtung zu entriegeln oder einen Entriegelungsprozess ein zuleiten. In einer alternativen Ausführungsform kann die Vorrichtung100 auch verbale Eingabe zur Aktivierung oder Deaktivierung mancher Funktionen durch das Mikrofon113 aufnehmen. - Die Aufmerksamkeit wird jetzt auf Ausführungsformen der Benutzerschnittstelle („UI") und assoziierte Prozesse gelenkt, die auf einer tragbaren elektronischen Vorrichtung
100 implementiert sein können. -
3 stellt eine beispielhafte Benutzerschnittstelle zum Entriegeln einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen300 die folgenden Elemente, oder eine Untermenge oder Obermenge davon: - • Entriegelungsbild
302 , das mit einer Fingergeste bewegt wird, um die Vorrichtung zu entriegeln; - • Pfeil
304 , der einen visuellen Hinweis auf die Entriegelungsgeste liefert; - • Kanal
306 , der zusätzliche Hinweise auf die Entriegelungsgeste liefert; - • Zeit
308 ; - • Tag
310 ; - • Datum
312 ; und - • Hintergrundbild
314 . - In manchen Ausführungsformen detektiert die Vorrichtung Kontakte mit der berührungsempfindlichen Anzeige (z. B. eine Kontaktherstellung durch den Finger eines Benutzers auf oder nahe dem Entriegelungsbild
302 ), während die Vorrichtung in einem Benutzerschnittstellenverriegelungszustand ist. Die Vorrichtung bewegt das Entriegelungsbild302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht in einen Benutzerschnittstellenentriegelungszustand über, wenn der detektierte Kontakt einer vordefinierten Geste entspricht, wie etwa Bewegen des Entriegelungsbildes über den Kanal306 . Umgekehrt behält die Vorrichtung den Benutzerschnittstellenverriegelungszustand bei, wenn der detektierte Kontakt nicht der vordefinierten Geste entspricht. Wie oben angemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entriegeln, in der US-Patentanmeldung 11/322,549 „Entriegeln einer Vorrichtung durch Durchführen von Gesten auf einem Entriegelungsbild", eingereicht am 23. Dezember 2005, beschrieben, die hiermit per Referenz mit eingebunden wird. -
4 stellt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle400 die folgenden Elemente, oder eine Untermenge oder Obermenge davon: - • Signalstärkeanzeiger
402 für drahtlose Kommunikation; - • Zeit
404 ; - • Batteriezustandsanzeiger
406 ; - • Ablage
408 mit Icons für häufig verwendete Anwendungen, wie etwa: - – Telefon
138 ; - – Email-Client
140 , der einen Anzeiger410 der Anzahl an ungelesenen Emails umfassen kann; - – Browser
147 ; und - – Musikspieler
146 ; und - • Icons für andere Anwendungen, wie etwa:
- – IM
141 ; - – Bildverwaltung
144 ; - – Kamera
143 ; - – Videospieler
145 ; - – Wetter
149-1 ; - – Aktien
149-2 ; - – Blog
142 ; - – Kalender
148 ; - – Taschenrechner
149-3 ; - – Wecker
149-4 ; - – Wörterbuch
149-5 ; und - – benutzererzeugtes Widget
149-6 . - In manchen Ausführungsformen zeigt UI
400 alle der verfügbaren Anwendungen136 auf einem Bildschirm an, so dass man nicht durch eine Liste von Anwendungen zu scrollen braucht (z. B. über eine Bildlaufleiste). In manchen Ausführungsformen, da die Anzahl an Anwendungen zunimmt, können die Icons, die den Anwendungen entsprechen, in ihrer Größe abnehmen, so dass alle Anwendungen auf einem einzigen Bildschirm ohne Scrollen angezeigt werden können. Alle Anwendungen auf einem Bildschirm zu haben und eine Menütaste zu haben, versetzt in manchen Ausführungsformen einen Benutzer in die Lage, auf jede beliebige gewünschte Anwendung mit höchstens zwei Eingaben zuzugreifen, wie etwa Aktivieren der Menütaste204 und dann Aktivieren einer gewünschten Anwendung (z. B. Aktivieren des Bildverwaltungsmoduls144 durch ein Fingertippen412 oder eine andere Fingergeste auf dem Icon, das der Anwendung entspricht). Aktivieren der gewünschten Anwendung führt zu einer anderen Benutzerschnittstelle, die der benutzer-gewählten Anwendung entspricht. -
5 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten von Fotoalben in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle500 die folgenden Elemente, oder eine Untermenge oder Obermenge davon: - •
402 ,404 und406 , wie oben beschrieben; - • Grafik
504 , z. B. Vorschaubild des ersten Bilds oder eines benutzer-ausgewählten Bildes in den entsprechenden Alben; - • Albumnamen
506 ; - • Auswahl-Icons
508 , die, wenn sie aktiviert werden (z. B. durch eine Fingergeste auf dem Icon), Anzeige des entsprechenden Albums einleiten (z. B. UI600 ,6 ); und - • Einstellungen-Icon
510 , das ein Einstellungsmenü hervorbringt, wenn es durch eine Benutzergeste aktiviert wird (z. B. eine Tippgeste). -
6 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten eines Albums in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle1000 die folgenden Elemente, oder eine Untermenge oder Obermenge davon: - •
402 ,404 und406 , wie oben beschrieben; - • Fotoalben-Icon
602 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zur Fotoalben-UI einleitet (z. B. UI500 ); - • Vorschaubilder
606 von Bildern im entsprechenden Album; - • Abspiel-Icon
608 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), eine Diaschau der Bilder in dem Album einleitet; - In manchen Ausführungsformen kann der Benutzer durch die Vorschaubilder
606 scrollen unter Verwendung vertikaler Nach-oben-/Nach-unten-Gesten610 auf dem Berührungsbildschirm. Eine stationäre Geste auf einem bestimmten Vorschaubild (z. B. ein Fingertippen612 auf Vorschaubild606-11 ) leitet Übergang der Anwendung zu einem unterschiedlichen Modus ein, z. B. eine vergrößerte Anzeige des entsprechenden Bildes (z. B. UI700 ,7 ). -
7 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten vergrößerter Bilder in einem Album in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle700 die folgenden Elemente, oder eine Untermenge oder eine Obermenge davon: - •
402 ,404 und406 wie oben beschrieben; - • Albumname-Icon
702 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zur entsprechenden Alben-UI (z. B. UI600 ) einleitet; - • Bild
706 ; - • zusätzliche-Optionen-Icon
708 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zu einer UI mit zusätzlichen Optionen für die Verwendung des Bildes706 einleitet; - • Vorhergehendes-Bild-Icon
710 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste722 auf dem Icon), Anzeige des vorhergehenden Bildes im Album (z. B.606-10 ) einleitet; - • Abspielen-Icon
712 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), eine Diaschau der Bilder in dem Album einleitet; und - • Nächstes-Bild-Icon
714 , das, wenn es aktiviert wird (z. B. durch eine Fingergeste724 auf dem Icon), Anzeige des nächsten Bildes in dem Album (z. B.606-12 ) einleitet. - In manchen Ausführungsformen ist Auswählen des Icons für vorhergehendes oder nächstes Bild nicht die einzige Art und Weise des Anzeigens des vorhergehenden oder nächsten Bildes im Album. Zum Beispiel kann der Benutzer Betrachten des vorhergehenden Bildes durch Durchführen einer Tippgeste
718 auf der linken Seite des Bildes einleiten, oder Durchführen einer Streichgeste716 von links nach rechts auf dem Bild. Das Bild706 bewegt sich aus dem Bildschirm nach rechts, während sich das vorhergehende Bild auf den Bildschirm von links bewegt. Ähnlich kann der Benutzer Betrachten des nächsten Bildes durch Durchführen einer Tippgeste720 auf der rechten Seite des Bildes einleiten, oder Durchführen einer Streichgeste716 von rechts nach links auf dem Bild. Das Bild706 bewegt sich aus dem Bildschirm nach links, während sich das nächste Bild auf den Bildschirm von rechts bewegt. - Mit mehreren Möglichkeiten, die gleiche Aufgabe durchzuführen, ermöglicht die tragbare elektronische Vorrichtung es einem Benutzer, auszuwählen, was auch immer der Benutzer bevorzugt, wodurch die Fotoverwaltung einfacher und intuitiver gemacht wird.
- Die
8A bis8D stellen beispielhafte Benutzerschnittstellen für einen Browser in Übereinstimmung mit manchen Ausführungsformen dar. - In manchen Ausführungsformen umfasst die Benutzerschnittstelle
800A die folgenden Elemente, oder eine Untermenge oder Obermenge davon: - •
402 ,404 und406 , wie oben beschrieben; - • Vorherige-Seite-Icon
802 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige der vorhergehenden Webseite einleitet; - • Webseitenname
804 ; - • Nächste-Seite-Icon
806 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige der nächsten Webseite einleitet; - • URL-(Uniform Resource Locator)-Eingabefeld
808 zum Eingeben von URLs von Webseiten; - • Neu-Laden-Icon
810 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), ein Aktualisieren der Webseite einleitet; - • Webseite
812 oder ein anderes strukturiertes Dokument, das einen oder mehrere Blöcke814 mit Textinhalt oder anderen Grafiken (z. B. Bildern) umfasst; - • Einstellungen-Icon
816 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige eines Einstellungenmenüs für den Browser einleitet; - • Lesezeichen-Icon
818 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer Lesezeichenliste oder eines Lesezeichenmenüs für den Browser einleitet; - • Lesezeichen-Hinufügen-Icon
820 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer UI zum Hinzufügen von Lesezeichen einleitet; und - • Neues-Fenster-Icon
822 , das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer UI zum Hinzufügen neuer Fenster zum Browser (z. B. UI800D ,8D ) einleitet. - In manchen Ausführungsformen leitet die tragbare Vorrichtung in Antwort auf eine vordefinierte Geste durch den Benutzer auf einem Block
814 (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens) einen vordefinierten Modus der Browseranwendung ein, der z. B. bewirkt, dass der Block vergrößert und in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) wird. Zum Beispiel kann in Antwort auf eine Geste eines einzelnen Tippens823 auf den Block814-5 der Block814-5 vergrößert und in der Anzeige zentriert werden, wie in UI800B ,8B , gezeigt. - In manchen Ausführungsformen wird die Breite des benutzer-ausgewählten Blocks skaliert, um die Berührungsbildschirmanzeige zu füllen. In manchen Ausführungsformen wird die Breite des Blocks so skaliert, dass die Berührungsbildschirmanzeige mit einer vorbestimmten Menge an Auspolsterung entlang der Seiten der Anzeige gefüllt wird. In manchen Ausführungsformen wird eine Zoom-Animation des Blocks während Vergrößerung des Blocks angezeigt. Ähnlich kann in Antwort auf eine Geste eines einzelnen Tippens
825 auf Block814-2 der Block814-2 mit einer Zoom-Animation vergrößert werden und zweidimensional zum Mittelpunkt der Anzeige gescrollt werden (nicht dargestellt). - In manchen Ausführungsformen analysiert die Vorrichtung den Darstellungsbaum der Webseite
812 , um die Blöcke814 in der Webseite zu bestimmen. In manchen Ausführungsformen entspricht ein Block814 einem Darstellungspunkt, d. h.: einem ersetzten Inline, einem Block, einem Inline-Block oder einer Inline-Tabelle. - In manchen Ausführungsformen wird in Antwort auf dieselbe vordefiniert Geste durch den Benutzer auf einem Block
814 (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens), der bereits vergrößert und zentriert ist, die Vergrößerung und/oder das Zentrieren im Wesentlichen vollständig umgekehrt. Wie in der UI800B (8B ) gezeigt, kann in Antwort auf eine Geste eines einzelnen Tippens829 auf den Block814-5 das Webseitenbild herauszoomen und nach UI800A ,8A , zurückkehren. - In manchen Ausführungsformen wird in Antwort auf eine vordefiniere Geste (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens) durch den Benutzer auf einen Block
814 , der bereits vergrößert, aber nicht zentriert ist, der Block auf der Webseitenanzeige zentriert (oder im Wesentlichen zentriert). Zum Beispiel kann in Antwort auf eine Geste eines einzelnen Tippens827 auf den Block814-4 der Block814-4 in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) werden. Ähnlich kann in Antwort auf eine Geste eines einzelnen Tippens835 auf den Block814-6 der Block814-6 in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) werden. Somit kann für eine Webseitenanzeige, die bereits vergrößert ist, die Vorrichtung in Antwort auf eine vordefinierte Geste auf eine intuitive Weise eine Serie von Blöcken anzeigen, die der Benutzer betrachten möchte. Diese gleiche Geste kann unterschiedliche Aktionen in unterschiedlichen Kontexten einleiten (z. B. (1) Zoomen und/oder Vergrößern eines Blocks in Kombination mit Scrollen, wenn der Block in verringerter Größe angezeigt wird, und (2) Umkehren der Vergrößerung und/oder Zentrierung, wenn der Block bereits zentriert und vergrößert ist). - In manchen Ausführungsformen kann in Antwort auf eine im Wesentlichen vertikale Nach-oben-(oder Nach-unten)-Streichgeste
828 durch den Benutzer die Webseite (oder allgemeiner ein elektronisches Dokument) eindimensional nach oben (oder nach unten) in der vertikalen Richtung scrollen. - In manchen Ausführungsformen kann in Antwort auf eine Mehrfachberührungsrotationsgeste
841 und843 durch den Benutzer die Webseite von Portraitansicht (UI800B ,8B ) nach Landschaftsansicht (UI800C ,8C ) rotiert werden, selbst wenn die Rotationsmenge in der Mehrfachberührungsrotationsgeste841 und843 im Wesentlichen von 90° verschieden ist. Ähnlich kann in Antwort auf eine Mehrfachberührungsrotationsgeste845 und847 durch den Benutzer die Webseite zurück von der Landschaftsansicht zur Portraitansicht rotiert werden, selbst wenn die Rotationsmenge in der Mehrfachberührungsrotationsgeste845 und847 im Wesentlichen verschieden von 90° ist. - In manchen Ausführungsformen wird Mehrfachberührungsrotation
841 und843 durch einen Benutzer durchgeführt, der zwei im Wesentlichen simultane Fingerkontaktrotationen auf oder nahe dem Berührungsbildschirm112 innerhalb des Anzeigegebiets durchführt, das von der Webseite belegt wird (z. B. auf Block814-5 ). - Somit geschehen in Antwort auf unpräzise Gesten durch den Benutzer präzise Bewegungen der Grafik. Die Vorrichtung verhält sich in der Art und Weise, die durch den Benutzer gewünscht wird, trotz inakkurater Eingabe durch den Benutzer. Man beachte, dass die Gesten, die oben für UI
800B beschrieben wurden, das eine Portraitansicht hat, auch auf UIs mit einer Landschaftsansicht (z. B. UI800C ) anwendbar sind, so dass der Benutzer wählen kann, welche Ansicht der Benutzer für Websurfen bevorzugt. -
8D stellt eine UI800D zum Hinzufügen neuer Fenster zu einer Anwendung dar, wie etwa den Browser147 . Zum Beispiel zeigt in Antwort auf ein Benutzerfingertippen848 auf dem Neues-Fenster-Icon822 UI800D eine Anwendung (z. B. den Browser147 ) in einem vordefinierten Modus an, die ein angezeigtes Fenster (z. B. Webseite812-2 ) und mindestens ein teilweise verborgenes Fenster (z. B. Webseiten812-1 und812-3 und möglicherweise andere Webseiten, die vollständig außerhalb des Bildschirms verborgen sind) umfasst. UI800D zeigt auch ein Icon zum Hinzufügen von Fenstern zu einer Anwendung an (z. B. Neues-Fenster- oder Neue-Seite-Icon836 ). Auf die Detektion einer Aktivierung des Icons836 zum Hinzufügen von Fenstern hin fügt der Browser der Anwendung ein Fenster hinzu (z. B. ein neues Fenster für eine neue Webseite812 ). - Nach der Detektion einer Geste auf der Berührungsbildschirmanzeige wird ein angezeigtes Fenster in der Anwendung aus der Anzeige geschoben und ein verborgenes Fenster wird auf die Anzeige geschoben. Zum Beispiel bewegt sich in Antwort auf Detektieren einer Tippgeste
849 auf der linken Seite des Fensters das Fenster mit der Webseite812-2 teilweise vom Bildschirm nach rechts, um die Position einzunehmen, die durch das Fenster mit der Webseite812-3 verlassen wurde, welches sich vollständig vom Bildschirm herunter bewegen kann. In der Zwischenzeit bewegt sich das teilweise verborgene Fenster mit der Webseite812-1 zum Mittelpunkt der Anzeige, und ein anderes vollständig verborgenes Fenster mit einer Webseite (nicht dargestellt) kann sich teilweise auf die Anzeige bewegen. Alternativ kann eine Links-nach-rechts-Streichgeste851 auf dem Berührungsbildschirm die gleiche Wirkung erzielen. - Umgekehrt bewegt sich in Antwort auf die Detektion einer Tippgeste
853 auf der rechten Seite des Bildschirms das Fenster mit der Webseite812-2 teilweise nach links und schiebt das Fenster mit der Webseite812-1 von der Anzeige herunter. In der Zwischenzeit bewegt sich das teilweise verborgene Fenster mit der Webseite812-3 zum Mittelpunkt der Anzeige, und ein anderes vollständig verborgenes Fenster mit einer Webseite (nicht dargestellt) kann sich teilweise auf die Anzeige bewegen. Alternativ kann eine Rechts-nach-links-Streichgeste851 die gleiche Wirkung erzielen. - In manchen Ausführungsformen können die Tippgesten
849 oder853 auf den (oder innerhalb der) entsprechenden Fenster812-1 oder812-3 durchgeführt werden oder nicht. Die tragbare Vorrichtung arbeitet auf dieselbe Weise wie oben erwähnt, solange die Tippgesten innerhalb eines vordefinierten Bereichs von den entsprechenden Fenstern entfernt sind. - In manchen Ausführungsformen wird in Antwort auf ein Tippen oder eine andere vordefinierte Geste auf ein Löschen-Icon
834 das entsprechende Fenster812 gelöscht. In manchen Ausführungsformen bewegt sich, nachdem das benutzer-ausgewählte Fenster vom Bildschirm gelöscht wurde, ein benachbartes Fenster von links oder rechts herein, um die Stelle einzunehmen, die vorher durch das gelöschte Fenster eingenommen wurde. In manchen Ausführungsformen wird in Antwort auf ein Tippen oder eine andere vordefinierte Geste auf ein Fertig-Icon838 das Fenster in der Mitte der Anzeige (z. B.812-2 ) vergrößert, um den Bildschirm auszufüllen. Die Operationen, die oben in Verbindung mit UI800D beschrieben wurden, die eine Landschaftsansicht hat, sind auch auf UIs mit einer Landschaftsansicht (z. B. UI800A ) anwendbar, so dass der Benutzer wählen kann, welche Ansicht auch immer der Benutzer zum Websurfen bevorzugt. - Ein Vergleich zwischen der Bildverwaltungsanwendung (z. B. UI
700 ,7 ) und der Browseranwendung (z. B. UI800D ,8D ) zeigt an, dass beide Anwendungen das Merkmal haben, dass sie den gleichen Satz an Operationen in Antwort auf verschiedene Arten von Benutzergesten durchführen.9 ist ein verallgemeinertes Flussdiagramm, das einen Prozess zum Durchführen einer vordefinierten Operation auf das Detektieren mehrerer Arten von Benutzergesten auf dem Berührungsbildschirm der tragbaren elektronischen Vorrichtung hin in Übereinstimmung mit manchen Ausführungsformen darstellt. - Auf eine Benutzerauswahl eines Icons in einer Anwendungs-UI hin zeigt die Vorrichtung einen Satz an Objekten, die mit der Anwendung assoziiert sind, auf ihrem Berührungsbildschirm an (
902 ). Abhängig von der Anwendung kann der Satz an Objekten ein Satz von Vorschaubildern (UI600 ,6 ), Browsing-Fenstern, Webseitenblöcken oder Ähnlichem sein. - Auf die Detektion einer Benutzerauswahl eines der Objekte hin (
904 ) zeigt die Vorrichtung ein bestimmtes, benutzer-ausgewähltes Objekt (z. B. ein vergrößertes Bild) auf dem Berührungsbildschirm an (906 ) und startet dann Überwachung von Benutzergesten auf dem Berührungsbildschirm (908 ). - Wenn die Benutzergeste ein horizontales/vertikales Fingerstreichen auf dem Berührungsbildschirm ist (
910 ), ein Fingertippen auf einem Rand des Berührungsbildschirms (918 ) oder ein Fingertippen auf das Icon für vorhergehendes/nächstes Objekt (914 ), identifiziert die Vorrichtung in dem Satz das vorhergehende oder nächste Objekt, das durch den Benutzer ausgewählt wurde (916 ) und zeigt das vorhergehende oder nächste Objekt auf dem Berührungsbildschirm in Ersetzung des aktuellen Objekts auf der Anzeige an (918 ,920 ). - Die vorhergehende Beschreibung wurde zum Zweck der Erklärung mit Bezug auf spezifische Ausführungsformen beschrieben. Die illustrativen Diskussionen oben sollen jedoch nicht erschöpfend sein oder die Erfindung auf die präzisen offenbarten Formen beschränken. Zahlreiche Modifikationen und Variationen sind möglich in Anbetracht der obigen Lehren. Die Ausführungsformen wurden ausgewählt und beschrieben, um die Prinzipen der Erfindung und ihre praktischen Anwendungen am besten zu erklären, und dadurch andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsformen mit verschiedenen Modifikationen, wie sie für die spezielle betrachtete Verwendung geeignet sind, am besten zu verwenden.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 6323846 [0041]
- - US 6570557 [0041]
- - US 6677932 [0041]
- - US 2002/0015024 A1 [0041]
Claims (21)
- Tragbare Multifunktionsvorrichtung, umfassend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer Anwendung; und Anweisungen zum Durchführen einer vordefinierten Operation in Antwort auf jede Geste eines Satzes von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vordefinierten Modus ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei die mehreren Gesten auf der Berührungsbildschirmanzeige eine Tippgeste und eine Streichgeste umfassen.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei die Anwendung eine Bildverwaltungsanwendung oder eine Browser-Anwendung ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei der vordefinierte Modus Anzeigen eines Objekts aus einem Satz von Objekten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 4, wobei das Objekt ein digitales Bild aus einem Satz von digitalen Bildern ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 5, wobei mindestens eines der digitalen Bilder einem Videostrom entspricht.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 5, wobei mindestens eines der digitalen Bilder einem Musikalbum entspricht.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 4, wobei das Objekt eine Webseite aus einem Satz von Webseiten ist.
- Tragbare Multifunktionsvorrichtung, umfassend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer ersten Anwendung; wenn die erste Anwendung in einem ersten Modus ist, Anweisungen zum Durchführen einer ersten Operation auf das Detektieren einer ersten Geste auf der Berührungsbildschirmanzeige hin; und Anweisungen zum Durchführen der ersten Operation auf das Detektieren einer zweiten Geste auf der Berührungsbildschirmanzeige hin, wobei die zweite Geste von der ersten Geste verschieden ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei der erste Modus Anzeigen eines ersten Objekts aus einem Satz von Objekten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 10, wobei das erste Objekt ein digitales Bild aus einem Satz von digitalen Bildern ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 10, wobei das erste Objekt eine Webseite aus einem Satz von Webseiten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Geste eine Tippgeste und die zweite Geste eine Streichgeste ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Operation Anzeigen eines nächsten Objekts aus einem Satz von Objekten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Operation Anzeigen eines vorhergehenden Objekts aus einem Satz von Objekten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, umfassend wenn die erste Anwendung im ersten Modus ist, Anweisungen zum Durchführen der ersten Operation auf das Detektieren einer dritten Geste auf der Berührungsbildschirmanzeige hin, wobei die dritte Geste von der ersten Geste und der zweiten Geste verschieden ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Anwendung eine Bildverwaltungsanwendung ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Anwendung eine Browser-Anwendung ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, umfassend Anweisungen zum Anzeigen einer zweiten Anwendung; und wenn die zweite Anwendung in einem zweiten Modus ist, Anweisungen zum Durchführen der ersten Operation auf das Detektieren der ersten Geste auf der Berührungsbildschirmanzeige hin; und Anweisungen zum Durchführen der ersten Operation auf das Detektieren der zweiten Geste auf der Berührungsbildschirmanzeige hin, wobei die zweite Geste von der ersten Geste verschieden ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 19, wobei der zweite Modus Anzeigen eines ersten Objekts aus einem Satz von Objekten ist.
- Tragbare Multifunktionsvorrichtung gemäß Anspruch 19, wobei die erste Anwendung eine Bildverwaltungsanwendung und die zweite Anwendung eine Browser-Anwendung ist.
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US82476906P | 2006-09-06 | 2006-09-06 | |
US60/824,769 | 2006-09-06 | ||
US87925307P | 2007-01-07 | 2007-01-07 | |
US88381707P | 2007-01-07 | 2007-01-07 | |
US60/879,253 | 2007-01-07 | ||
US60/883,817 | 2007-01-07 | ||
US87946907P | 2007-01-08 | 2007-01-08 | |
US60/879,469 | 2007-01-08 | ||
US93799307P | 2007-06-29 | 2007-06-29 | |
US60/937,993 | 2007-06-29 | ||
US11/850,638 | 2007-09-05 | ||
US11/850,638 US8842074B2 (en) | 2006-09-06 | 2007-09-05 | Portable electronic device performing similar operations for different gestures |
PCT/US2007/077773 WO2008030972A1 (en) | 2006-09-06 | 2007-09-06 | Portable electronic device performing similar operations for different gestures |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202007018420U1 true DE202007018420U1 (de) | 2008-06-19 |
Family
ID=38765739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202007018420U Expired - Lifetime DE202007018420U1 (de) | 2006-09-06 | 2007-09-06 | Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt |
Country Status (9)
Country | Link |
---|---|
US (7) | US8842074B2 (de) |
EP (1) | EP2069898B1 (de) |
JP (3) | JP5409364B2 (de) |
KR (2) | KR20110115180A (de) |
CN (1) | CN102681776B (de) |
AU (1) | AU2007289019B2 (de) |
DE (1) | DE202007018420U1 (de) |
HK (1) | HK1134887A2 (de) |
WO (1) | WO2008030972A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009019563A1 (de) * | 2009-04-30 | 2010-11-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information |
DE102009019560A1 (de) * | 2009-04-30 | 2010-11-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information |
DE102011010229A1 (de) * | 2011-02-03 | 2012-08-09 | Audi Ag | Vorrichtung zur Bedienung mehrerer unterschiedlicher Funktionen eines Kraftfahrzeugs |
Families Citing this family (141)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US8842074B2 (en) | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
WO2008138030A1 (en) * | 2007-05-11 | 2008-11-20 | Rpo Pty Limited | User-defined enablement protocol |
US9954996B2 (en) | 2007-06-28 | 2018-04-24 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US9171454B2 (en) * | 2007-11-14 | 2015-10-27 | Microsoft Technology Licensing, Llc | Magic wand |
US8952894B2 (en) * | 2008-05-12 | 2015-02-10 | Microsoft Technology Licensing, Llc | Computer vision-based multi-touch sensing using infrared lasers |
US8174503B2 (en) * | 2008-05-17 | 2012-05-08 | David H. Cain | Touch-based authentication of a mobile device through user generated pattern creation |
US8504946B2 (en) * | 2008-06-27 | 2013-08-06 | Apple Inc. | Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document |
JP4636131B2 (ja) | 2008-07-04 | 2011-02-23 | ソニー株式会社 | 情報提供装置、情報提供方法、およびプログラム |
US8286171B2 (en) | 2008-07-21 | 2012-10-09 | Workshare Technology, Inc. | Methods and systems to fingerprint textual information using word runs |
KR101495172B1 (ko) | 2008-07-29 | 2015-02-24 | 엘지전자 주식회사 | 이동단말기 및 그의 이미지 제어방법 |
US8847739B2 (en) * | 2008-08-04 | 2014-09-30 | Microsoft Corporation | Fusing RFID and vision for surface object tracking |
US20100031202A1 (en) * | 2008-08-04 | 2010-02-04 | Microsoft Corporation | User-defined gesture set for surface computing |
US20100064261A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Portable electronic device with relative gesture recognition mode |
JP2010086230A (ja) * | 2008-09-30 | 2010-04-15 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
US20100107100A1 (en) | 2008-10-23 | 2010-04-29 | Schneekloth Jason S | Mobile Device Style Abstraction |
US8411046B2 (en) | 2008-10-23 | 2013-04-02 | Microsoft Corporation | Column organization of content |
US8385952B2 (en) * | 2008-10-23 | 2013-02-26 | Microsoft Corporation | Mobile communications device user interface |
US8954894B2 (en) * | 2008-11-15 | 2015-02-10 | Adobe Systems Incorporated | Gesture-initiated symbol entry |
US20100146459A1 (en) * | 2008-12-08 | 2010-06-10 | Mikko Repka | Apparatus and Method for Influencing Application Window Functionality Based on Characteristics of Touch Initiated User Interface Manipulations |
US8289162B2 (en) * | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
KR101545880B1 (ko) * | 2008-12-22 | 2015-08-21 | 삼성전자주식회사 | 터치 스크린을 구비한 단말기 및 그 단말기의 데이터 표시 방법 |
KR101523386B1 (ko) * | 2009-01-07 | 2015-05-27 | 엘지전자 주식회사 | 사용자 동작에 따른 이동 통신 단말기의 제어방법 및 이를 적용한 이동 통신 단말기 |
JP2010191676A (ja) * | 2009-02-18 | 2010-09-02 | Nikon Corp | 撮影装置 |
WO2010094105A1 (en) * | 2009-02-23 | 2010-08-26 | Research In Motion Limited | Touch-sensitive display and method of controlling same |
KR101368526B1 (ko) * | 2009-03-26 | 2014-02-27 | 쿄세라 코포레이션 | 전자기기, 정보 처리 방법, 및 정보 표시 방법 |
US8175653B2 (en) | 2009-03-30 | 2012-05-08 | Microsoft Corporation | Chromeless user interface |
US9886936B2 (en) * | 2009-05-14 | 2018-02-06 | Amazon Technologies, Inc. | Presenting panels and sub-panels of a document |
US8347232B1 (en) * | 2009-07-10 | 2013-01-01 | Lexcycle, Inc | Interactive user interface |
WO2011037558A1 (en) | 2009-09-22 | 2011-03-31 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US9310907B2 (en) | 2009-09-25 | 2016-04-12 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
FR2953955B1 (fr) * | 2009-12-14 | 2013-03-15 | Mu 13 Comm Sante | Installation d'appel et procede de gestion d'appel a l'aide d'une telle installation |
US20110163977A1 (en) * | 2010-01-06 | 2011-07-07 | Ulrich Barnhoefer | Mode Dependent Configuration of Portable Electronic Device |
US8438504B2 (en) | 2010-01-06 | 2013-05-07 | Apple Inc. | Device, method, and graphical user interface for navigating through multiple viewing areas |
CN102770835B (zh) | 2010-01-20 | 2016-01-06 | 诺基亚公司 | 用于组织图形项的方法和设备 |
RU2556079C2 (ru) * | 2010-02-04 | 2015-07-10 | Нокиа Корпорейшн | Ввод данных пользователем |
US20120026100A1 (en) * | 2010-07-30 | 2012-02-02 | Migos Charles J | Device, Method, and Graphical User Interface for Aligning and Distributing Objects |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
WO2012044713A1 (en) * | 2010-10-01 | 2012-04-05 | Imerj LLC | Drag/flick gestures in user interface |
KR101522345B1 (ko) | 2010-11-12 | 2015-05-21 | 주식회사 케이티 | 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치 |
US9384216B2 (en) * | 2010-11-16 | 2016-07-05 | Microsoft Technology Licensing, Llc | Browsing related image search result sets |
US10025759B2 (en) | 2010-11-29 | 2018-07-17 | Workshare Technology, Inc. | Methods and systems for monitoring documents exchanged over email applications |
US10783326B2 (en) | 2013-03-14 | 2020-09-22 | Workshare, Ltd. | System for tracking changes in a collaborative document editing environment |
KR101762612B1 (ko) | 2010-12-07 | 2017-07-31 | 삼성전자 주식회사 | 목록 표시 방법 및 장치 |
KR101788049B1 (ko) * | 2010-12-15 | 2017-10-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US9244606B2 (en) | 2010-12-20 | 2016-01-26 | Apple Inc. | Device, method, and graphical user interface for navigation of concurrently open software applications |
KR20120071670A (ko) * | 2010-12-23 | 2012-07-03 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
JP5418508B2 (ja) | 2011-01-13 | 2014-02-19 | カシオ計算機株式会社 | 電子機器、表示制御方法及びプログラム |
KR101199618B1 (ko) | 2011-05-11 | 2012-11-08 | 주식회사 케이티테크 | 화면 분할 표시 장치 및 방법 |
JP5254399B2 (ja) * | 2011-05-13 | 2013-08-07 | 株式会社エヌ・ティ・ティ・ドコモ | 表示装置、ユーザインタフェース方法及びプログラム |
US8971924B2 (en) | 2011-05-23 | 2015-03-03 | Apple Inc. | Identifying and locating users on a mobile network |
US10715380B2 (en) | 2011-05-23 | 2020-07-14 | Apple Inc. | Setting a reminder that is triggered by a target user device |
KR101810884B1 (ko) * | 2011-06-07 | 2017-12-20 | 삼성전자주식회사 | 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법 |
US9613340B2 (en) | 2011-06-14 | 2017-04-04 | Workshare Ltd. | Method and system for shared document approval |
US20120317479A1 (en) * | 2011-06-08 | 2012-12-13 | Workshare Ltd. | Method and system for shared document editing on a mobile device |
US10963584B2 (en) | 2011-06-08 | 2021-03-30 | Workshare Ltd. | Method and system for collaborative editing of a remotely stored document |
US8566100B2 (en) * | 2011-06-21 | 2013-10-22 | Verna Ip Holdings, Llc | Automated method and system for obtaining user-selected real-time information on a mobile communication device |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
CN103092833A (zh) * | 2011-10-27 | 2013-05-08 | 腾讯科技(深圳)有限公司 | 一种在手机浏览器中查看图片的方法、装置及移动设备 |
US10108737B2 (en) * | 2012-01-25 | 2018-10-23 | Microsoft Technology Licensing, Llc | Presenting data driven forms |
US9477642B2 (en) | 2012-02-05 | 2016-10-25 | Apple Inc. | Gesture-based navigation among content items |
US8504842B1 (en) * | 2012-03-23 | 2013-08-06 | Google Inc. | Alternative unlocking patterns |
US9106762B2 (en) * | 2012-04-04 | 2015-08-11 | Google Inc. | Associating content with a graphical interface window using a fling gesture |
DE112013002412T5 (de) | 2012-05-09 | 2015-02-19 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
AU2013259642A1 (en) | 2012-05-09 | 2014-12-04 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
DE112013002387T5 (de) | 2012-05-09 | 2015-02-12 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle |
AU2013259630B2 (en) | 2012-05-09 | 2016-07-07 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to gesture |
DE112013002409T5 (de) | 2012-05-09 | 2015-02-26 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt |
EP2847660B1 (de) | 2012-05-09 | 2018-11-14 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
TWI507969B (zh) * | 2012-09-07 | 2015-11-11 | Benq Corp | 遙控裝置、顯示系統與方法 |
KR102069014B1 (ko) * | 2012-09-25 | 2020-02-12 | 삼성전자 주식회사 | 휴대단말기의 분리화면 제어장치 및 방법 |
US9001216B2 (en) * | 2012-10-12 | 2015-04-07 | Sony Corporation | Method and apparatus for video streaming |
EP4213001A1 (de) * | 2012-12-06 | 2023-07-19 | Samsung Electronics Co., Ltd. | Anzeigevorrichtung und verfahren zur steuerung davon |
WO2014105275A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
EP2939095B1 (de) | 2012-12-29 | 2018-10-03 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften |
KR102001332B1 (ko) | 2012-12-29 | 2019-07-17 | 애플 인크. | 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
US8989773B2 (en) | 2013-01-29 | 2015-03-24 | Apple Inc. | Sharing location information among devices |
US10394434B2 (en) | 2013-02-22 | 2019-08-27 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing proximity motion using sensors |
US10261612B2 (en) * | 2013-02-22 | 2019-04-16 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing proximity motion using sensors |
US11209975B2 (en) | 2013-03-03 | 2021-12-28 | Microsoft Technology Licensing, Llc | Enhanced canvas environments |
EP3726359A1 (de) * | 2013-03-15 | 2020-10-21 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur verwaltung gleichzeitig geöffneter softwareanwendungen |
JP6014558B2 (ja) * | 2013-07-30 | 2016-10-25 | 京セラドキュメントソリューションズ株式会社 | 表示装置 |
US9798443B1 (en) * | 2013-09-10 | 2017-10-24 | Amazon Technologies, Inc. | Approaches for seamlessly launching applications |
USD739867S1 (en) * | 2013-09-20 | 2015-09-29 | Viggle Inc. | Display screen or portion thereof with animated graphical user interface |
US10073603B2 (en) * | 2014-03-07 | 2018-09-11 | Nokia Technologies Oy | Method and apparatus for providing notification of a communication event via a chronologically-ordered task history |
US20150350141A1 (en) | 2014-05-31 | 2015-12-03 | Apple Inc. | Message user interfaces for capture and transmittal of media and location content |
US10382378B2 (en) | 2014-05-31 | 2019-08-13 | Apple Inc. | Live location sharing |
USD768669S1 (en) * | 2014-08-01 | 2016-10-11 | Alexander Mackenzie & Pranger | Display screen or portion thereof with graphical user interface |
CN106605201B (zh) | 2014-08-06 | 2021-11-23 | 苹果公司 | 用于电池管理的减小尺寸的用户界面 |
US9348457B2 (en) * | 2014-08-13 | 2016-05-24 | International Business Machines Corporation | User interface tap selection on touchscreen device |
USD789419S1 (en) | 2014-09-01 | 2017-06-13 | Apple Inc. | Display screen or portion thereof with graphical user interface |
EP4209872A1 (de) | 2014-09-02 | 2023-07-12 | Apple Inc. | Benutzerschnittstelle für ein telefon |
KR102016160B1 (ko) | 2014-09-02 | 2019-08-29 | 애플 인크. | 경고를 관리하기 위한 축소된 크기의 인터페이스 |
USD772919S1 (en) | 2014-10-23 | 2016-11-29 | Visa International Service Association | Display screen or portion thereof with animated graphical user interface |
US10671277B2 (en) | 2014-12-17 | 2020-06-02 | Datalogic Usa, Inc. | Floating soft trigger for touch displays on an electronic device with a scanning module |
US11567626B2 (en) | 2014-12-17 | 2023-01-31 | Datalogic Usa, Inc. | Gesture configurable floating soft trigger for touch displays on data-capture electronic devices |
JP6035318B2 (ja) * | 2014-12-22 | 2016-11-30 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置及びこれを備えた画像形成装置 |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10401966B2 (en) * | 2015-05-15 | 2019-09-03 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
US9442575B1 (en) | 2015-05-15 | 2016-09-13 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10003938B2 (en) | 2015-08-14 | 2018-06-19 | Apple Inc. | Easy location sharing |
JP6617641B2 (ja) * | 2015-09-16 | 2019-12-11 | 富士ゼロックス株式会社 | ウェアラブル装置で実行される会議表示方法、ウェアラブルシステム及びプログラム |
US11029836B2 (en) * | 2016-03-25 | 2021-06-08 | Microsoft Technology Licensing, Llc | Cross-platform interactivity architecture |
JP6190925B2 (ja) * | 2016-07-22 | 2017-08-30 | 京セラドキュメントソリューションズ株式会社 | 表示装置 |
US10831332B2 (en) * | 2017-02-23 | 2020-11-10 | The Florida International University Board Of Trustees | User interface element for building interior previewing and navigation |
CN109074171B (zh) | 2017-05-16 | 2021-03-30 | 华为技术有限公司 | 输入方法及电子设备 |
CN107562347B (zh) * | 2017-09-07 | 2021-04-13 | 北京小米移动软件有限公司 | 显示对象的方法和装置 |
US11797150B2 (en) * | 2018-05-07 | 2023-10-24 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements |
USD904451S1 (en) | 2018-09-10 | 2020-12-08 | Apple Inc. | Electronic device with animated graphical user interface |
DK180318B1 (en) | 2019-04-15 | 2020-11-09 | Apple Inc | Systems, methods, and user interfaces for interacting with multiple application windows |
US11016643B2 (en) | 2019-04-15 | 2021-05-25 | Apple Inc. | Movement of user interface object with user-specified content |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6323846B1 (en) | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
Family Cites Families (217)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5119079A (en) | 1990-09-17 | 1992-06-02 | Xerox Corporation | Touch screen user interface with expanding touch locations for a reprographic machine |
US5347295A (en) * | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5610653A (en) | 1992-02-07 | 1997-03-11 | Abecassis; Max | Method and system for automatically tracking a zoomed video image |
JPH0695794A (ja) | 1992-09-16 | 1994-04-08 | Mutoh Ind Ltd | データ入力装置 |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
US6262732B1 (en) | 1993-10-25 | 2001-07-17 | Scansoft, Inc. | Method and apparatus for managing and navigating within stacks of document pages |
JP2602001B2 (ja) | 1993-11-01 | 1997-04-23 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 縮小可能キーボード付パーソナル通信機 |
JPH07225829A (ja) | 1994-02-15 | 1995-08-22 | Hitachi Ltd | データ表示方法及び装置 |
JPH0844253A (ja) | 1994-07-27 | 1996-02-16 | Canon Inc | 画像形成装置 |
CA2154951C (en) | 1994-09-12 | 2004-05-25 | John E. Warnock | Method and apparatus for viewing electronic documents |
US5559301A (en) | 1994-09-15 | 1996-09-24 | Korg, Inc. | Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems |
US5760773A (en) | 1995-01-06 | 1998-06-02 | Microsoft Corporation | Methods and apparatus for interacting with data objects using action handles |
GB2301217B (en) | 1995-05-26 | 1999-12-15 | Nokia Mobile Phones Ltd | Display driver |
US6496182B1 (en) | 1995-06-07 | 2002-12-17 | Microsoft Corporation | Method and system for providing touch-sensitive screens for the visually impaired |
US6199082B1 (en) | 1995-07-17 | 2001-03-06 | Microsoft Corporation | Method for delivering separate design and content in a multimedia publishing system |
US6486895B1 (en) | 1995-09-08 | 2002-11-26 | Xerox Corporation | Display system for displaying lists of linked documents |
US5761485A (en) * | 1995-12-01 | 1998-06-02 | Munyan; Daniel E. | Personal electronic book system |
US5828370A (en) | 1996-07-01 | 1998-10-27 | Thompson Consumer Electronics Inc. | Video delivery system and method for displaying indexing slider bar on the subscriber video screen |
JP3171145B2 (ja) | 1996-07-31 | 2001-05-28 | アイシン・エィ・ダブリュ株式会社 | タッチパネルを併設した情報表示装置及び記憶媒体 |
KR100260760B1 (ko) | 1996-07-31 | 2000-07-01 | 모리 하루오 | 터치패널을 병설한 정보표시장치 |
US5870083A (en) | 1996-10-04 | 1999-02-09 | International Business Machines Corporation | Breakaway touchscreen pointing device |
KR19980032331U (ko) | 1996-12-02 | 1998-09-05 | 사공영활 | 카드를 개봉하면 내용물이 돌출되는 카드 |
US6683628B1 (en) | 1997-01-10 | 2004-01-27 | Tokyo University Of Agriculture And Technology | Human interactive type display system |
JPH10198517A (ja) | 1997-01-10 | 1998-07-31 | Tokyo Noukou Univ | 表示装置の表示内容制御方法 |
US5739821A (en) | 1997-01-30 | 1998-04-14 | Primax Electronics Ltd. | Method for pointing a window frame or an icon of a window interface |
JP2957507B2 (ja) | 1997-02-24 | 1999-10-04 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 小型情報処理機器 |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US6069606A (en) * | 1997-05-15 | 2000-05-30 | Sony Corporation | Display of multiple images based on a temporal relationship among them with various operations available to a user as a function of the image size |
US6326970B1 (en) | 1997-05-16 | 2001-12-04 | Liberate Technologies | TV centric layout |
JP4223680B2 (ja) | 1997-08-28 | 2009-02-12 | トムソン コンシユーマ エレクトロニクス インコーポレイテツド | 異なる表示セクションを有する表示におけるナビゲーションシステム及び方法 |
US6034688A (en) | 1997-09-15 | 2000-03-07 | Sony Corporation | Scrolling navigational display system |
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US6025842A (en) | 1997-11-04 | 2000-02-15 | International Business Machines Corporation | System and method for window queues and white space activation for toggling windows |
JPH11143604A (ja) | 1997-11-05 | 1999-05-28 | Nec Corp | 携帯端末装置 |
US6613100B2 (en) | 1997-11-26 | 2003-09-02 | Intel Corporation | Method and apparatus for displaying miniaturized graphical representations of documents for alternative viewing selection |
US7663607B2 (en) | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US20070177804A1 (en) | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
JPH11242539A (ja) * | 1998-02-25 | 1999-09-07 | Sharp Corp | 表示装置 |
US6133916A (en) | 1998-04-08 | 2000-10-17 | International Business Machines Corporation | Graphical user interface providing access to files downloaded over a network |
US6211856B1 (en) | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
US6243080B1 (en) | 1998-07-14 | 2001-06-05 | Ericsson Inc. | Touch-sensitive panel with selector |
JP2000056889A (ja) | 1998-08-04 | 2000-02-25 | Matsushita Electric Ind Co Ltd | 携帯端末装置及びウインドウ制御方法 |
US20010015719A1 (en) | 1998-08-04 | 2001-08-23 | U.S. Philips Corporation | Remote control has animated gui |
US6177936B1 (en) | 1998-08-20 | 2001-01-23 | International Business Machines Corporation | Browser hierarchical contextual information for web pages |
JP2000163444A (ja) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
JP2000181436A (ja) | 1998-12-14 | 2000-06-30 | Sharp Corp | 文書表示装置 |
US6489975B1 (en) | 1998-12-14 | 2002-12-03 | International Business Machines Corporation | System and method for improved navigation between open windows in an application program using window tabs |
JP2000242390A (ja) * | 1999-02-18 | 2000-09-08 | Sony Corp | 情報の表示方法及び、情報表示装置 |
US6590594B2 (en) | 1999-03-25 | 2003-07-08 | International Business Machines Corporation | Window scroll-bar |
US6847778B1 (en) | 1999-03-30 | 2005-01-25 | Tivo, Inc. | Multimedia visual progress indication system |
US20050166232A1 (en) | 1999-04-21 | 2005-07-28 | Lamkin Allan B... | Presentation of media content from multiple media sources |
JP2000312360A (ja) | 1999-04-27 | 2000-11-07 | Matsushita Electric Ind Co Ltd | 情報提供装置 |
US6359615B1 (en) | 1999-05-11 | 2002-03-19 | Ericsson Inc. | Movable magnification icons for electronic device display screens |
US6411283B1 (en) | 1999-05-20 | 2002-06-25 | Micron Technology, Inc. | Computer touch screen adapted to facilitate selection of features at edge of screen |
JP2001014133A (ja) | 1999-07-02 | 2001-01-19 | Matsushita Electric Ind Co Ltd | 複数画面制御装置 |
US6639584B1 (en) | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
US6771250B1 (en) | 1999-07-27 | 2004-08-03 | Samsung Electronics Co., Ltd. | Portable computer system having application program launcher for low power consumption and method of operating the same |
US6349410B1 (en) | 1999-08-04 | 2002-02-19 | Intel Corporation | Integrating broadcast television pause and web browsing |
US6898307B1 (en) * | 1999-09-22 | 2005-05-24 | Xerox Corporation | Object identification method and system for an augmented-reality display |
KR100747421B1 (ko) | 1999-10-20 | 2007-08-09 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 영상 콜렉션을 브라우징하는 장치 및 방법 |
US6724403B1 (en) | 1999-10-29 | 2004-04-20 | Surfcast, Inc. | System and method for simultaneous display of multiple information sources |
US6466198B1 (en) | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
JP2001175386A (ja) | 1999-12-21 | 2001-06-29 | Fujitsu Ltd | 表示装置及び表示方法並びに記憶媒体 |
US6313855B1 (en) * | 2000-02-04 | 2001-11-06 | Browse3D Corporation | System and method for web browsing |
US6859909B1 (en) | 2000-03-07 | 2005-02-22 | Microsoft Corporation | System and method for annotating web-based documents |
JP2001265481A (ja) * | 2000-03-21 | 2001-09-28 | Nec Corp | ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体 |
JP4325075B2 (ja) * | 2000-04-21 | 2009-09-02 | ソニー株式会社 | データオブジェクト管理装置 |
US20040049737A1 (en) | 2000-04-26 | 2004-03-11 | Novarra, Inc. | System and method for displaying information content with selective horizontal scrolling |
US7210099B2 (en) | 2000-06-12 | 2007-04-24 | Softview Llc | Resolution independent vector display of internet content |
US7149549B1 (en) | 2000-10-26 | 2006-12-12 | Ortiz Luis M | Providing multiple perspectives for a venue activity through an electronic hand held device |
US20050204385A1 (en) | 2000-07-24 | 2005-09-15 | Vivcom, Inc. | Processing and presentation of infomercials for audio-visual programs |
AU2001283004A1 (en) | 2000-07-24 | 2002-02-05 | Vivcom, Inc. | System and method for indexing, searching, identifying, and editing portions of electronic multimedia files |
US20020015064A1 (en) * | 2000-08-07 | 2002-02-07 | Robotham John S. | Gesture-based user interface to multi-level and multi-modal sets of bit-maps |
TW466415B (en) | 2000-08-28 | 2001-12-01 | Compal Electronics Inc | Hand-held device with zooming display function |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US6590568B1 (en) | 2000-11-20 | 2003-07-08 | Nokia Corporation | Touch screen drag and drop input technique |
WO2002046903A1 (de) | 2000-12-07 | 2002-06-13 | Siemens Aktiengesellschaft | Verfahren zum auswählen und aktivieren einer funktion aus einem bedienungsmenü und bedienungsorgan zum durchführen des verfahrens |
US7139982B2 (en) | 2000-12-21 | 2006-11-21 | Xerox Corporation | Navigation methods, systems, and computer program products for virtual three-dimensional books |
US20020093531A1 (en) | 2001-01-17 | 2002-07-18 | John Barile | Adaptive display for video conferences |
US6928461B2 (en) | 2001-01-24 | 2005-08-09 | Raja Singh Tuli | Portable high speed internet access device with encryption |
US20050183017A1 (en) | 2001-01-31 | 2005-08-18 | Microsoft Corporation | Seekbar in taskbar player visualization mode |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
JP2002244635A (ja) | 2001-02-20 | 2002-08-30 | Fujitsu General Ltd | 画像表示装置 |
JP2002259001A (ja) | 2001-03-05 | 2002-09-13 | Shingo Tsuda | ウィンドウ操作方法及び装置 |
DE10117457A1 (de) | 2001-04-06 | 2002-10-17 | T Mobile Deutschland Gmbh | Verfahren zur Anzeige von standardisierten großformatigen Internet-Seiten mit beispielsweise HTML-Protokoll in Einhandendgeräten mit Mobilfunkanschluss |
US7039643B2 (en) | 2001-04-10 | 2006-05-02 | Adobe Systems Incorporated | System, method and apparatus for converting and integrating media files |
US6901585B2 (en) | 2001-04-12 | 2005-05-31 | International Business Machines Corporation | Active ALT tag in HTML documents to increase the accessibility to users with visual, audio impairment |
JP3618303B2 (ja) | 2001-04-24 | 2005-02-09 | 松下電器産業株式会社 | 地図表示装置 |
US20020158908A1 (en) | 2001-04-30 | 2002-10-31 | Kristian Vaajala | Web browser user interface for low-resolution displays |
US20020163545A1 (en) * | 2001-05-01 | 2002-11-07 | Hii Samuel S. | Method of previewing web page content while interacting with multiple web page controls |
EP1449190B1 (de) | 2001-05-02 | 2013-07-10 | Bitstream, Inc. | Verfahren, systeme und programmierung zum herstellen und anzeigen von subpixeloptimierten bildern und solche bilder enthaltender digitaler inhalt |
US6966837B1 (en) | 2001-05-10 | 2005-11-22 | Best Robert M | Linked portable and video game systems |
US7730401B2 (en) | 2001-05-16 | 2010-06-01 | Synaptics Incorporated | Touch screen with user interface enhancement |
US20030013483A1 (en) | 2001-07-06 | 2003-01-16 | Ausems Michiel R. | User interface for handheld communication device |
US20030117427A1 (en) | 2001-07-13 | 2003-06-26 | Universal Electronics Inc. | System and method for interacting with a program guide displayed on a portable electronic device |
US20030025676A1 (en) | 2001-08-02 | 2003-02-06 | Koninklijke Philips Electronics N.V. | Sensor-based menu for a touch screen panel |
JP2003091347A (ja) | 2001-09-18 | 2003-03-28 | Sony Corp | 情報処理装置、並びに画面表示方法、画面表示プログラム及び画面表示プログラムが記録された記録媒体 |
FR2830093A3 (fr) * | 2001-09-25 | 2003-03-28 | Bahia 21 Corp | Procede de navigation par ecran tactile |
US20040205496A1 (en) | 2001-10-11 | 2004-10-14 | International Business Machines Corporation | Displaying subheadings and hyperlinks in a scrollable long document |
US7312785B2 (en) | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US7084856B2 (en) | 2001-10-22 | 2006-08-01 | Apple Computer, Inc. | Mouse having a rotary dial |
US7345671B2 (en) | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
US6970200B2 (en) * | 2001-10-26 | 2005-11-29 | Hewlett-Packard Development Company, L.P. | System and method for a simplified digital camera interface for viewing images and controlling camera operation |
US7714880B2 (en) | 2001-11-16 | 2010-05-11 | Honeywell International Inc. | Method and apparatus for displaying images on a display |
JP3943383B2 (ja) | 2001-12-13 | 2007-07-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ウィンドウ・システムを備えたコンピュータ・システム、ウィンドウを操作をするための方法、コンピュータ・プログラム。 |
AUPR947701A0 (en) | 2001-12-14 | 2002-01-24 | Activesky, Inc. | Digital multimedia publishing system for wireless devices |
US7346855B2 (en) | 2001-12-21 | 2008-03-18 | Microsoft Corporation | Method and system for switching between multiple computer applications |
US7284069B2 (en) | 2002-01-11 | 2007-10-16 | Xerox Corporation | Method for document viewing |
US7075512B1 (en) | 2002-02-07 | 2006-07-11 | Palmsource, Inc. | Method and system for navigating a display screen for locating a desired item of information |
US6907576B2 (en) | 2002-03-04 | 2005-06-14 | Microsoft Corporation | Legibility of selected content |
US7433546B2 (en) | 2004-10-25 | 2008-10-07 | Apple Inc. | Image scaling arrangement |
TWI238348B (en) * | 2002-05-13 | 2005-08-21 | Kyocera Corp | Portable information terminal, display control device, display control method, and recording media |
US7171625B1 (en) | 2002-06-18 | 2007-01-30 | Actify, Inc. | Double-clicking a point-and-click user interface apparatus to enable a new interaction with content represented by an active visual display element |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7166791B2 (en) | 2002-07-30 | 2007-01-23 | Apple Computer, Inc. | Graphical user interface and methods of use thereof in a multimedia player |
FI115255B (fi) | 2002-09-02 | 2005-03-31 | Myorigo Oy | Kannettavan päätelaitteen näytön ohjausmenetelmä ja kannettava päätelaite |
NO318991B1 (no) | 2002-09-05 | 2005-05-30 | Opera Software Asa | Presentasjon av HTML-innhold på en liten terminalskjerm |
US8015259B2 (en) | 2002-09-10 | 2011-09-06 | Alan Earl Swahn | Multi-window internet search with webpage preload |
FI20021682A (fi) | 2002-09-20 | 2004-03-21 | Nokia Corp | Menetelmä laitteen lukitustilan avaamiseksi ja elektroninen laite |
JP4005470B2 (ja) | 2002-10-09 | 2007-11-07 | オリンパス株式会社 | 情報処理装置及び情報処理プログラム |
US7124125B2 (en) | 2002-11-01 | 2006-10-17 | Loudeye Corp. | System and method for providing media samples on-line in response to media related searches on the internet |
US7203901B2 (en) | 2002-11-27 | 2007-04-10 | Microsoft Corporation | Small form factor web browsing |
JP4446728B2 (ja) | 2002-12-17 | 2010-04-07 | 株式会社リコー | 複数のマルチメディア文書に格納された情報の表示法 |
JP2004206230A (ja) * | 2002-12-24 | 2004-07-22 | Casio Comput Co Ltd | 電子機器 |
FI20022282A0 (fi) | 2002-12-30 | 2002-12-30 | Nokia Corp | Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite |
US7054965B2 (en) | 2003-03-18 | 2006-05-30 | Oqo Incorporated | Component for use as a portable computing device and pointing device |
US20040215719A1 (en) | 2003-04-09 | 2004-10-28 | Altshuler Dennis Wayne | Method and system for designing, editing and publishing web page content in a live internet session |
US20040201595A1 (en) | 2003-04-11 | 2004-10-14 | Microsoft Corporation | Self-orienting display |
JP4046000B2 (ja) | 2003-04-16 | 2008-02-13 | 日本電信電話株式会社 | 構造化文書の抽出方法及び装置及びプログラム |
KR20040095410A (ko) | 2003-04-28 | 2004-11-15 | 에스케이텔레텍주식회사 | 이동통신 단말기에서의 멀티 윈도우를 이용한 데이터서비스 처리 방법 |
US20050044509A1 (en) | 2003-05-07 | 2005-02-24 | Hunleth Frank A. | Item selection using helical menus |
US20040268393A1 (en) * | 2003-05-08 | 2004-12-30 | Hunleth Frank A. | Control framework with a zoomable graphical user interface for organizing, selecting and launching media items |
EP1620785A4 (de) | 2003-05-08 | 2011-09-07 | Hillcrest Lab Inc | Steuerrahmen mit zoombarer grafischer benutzeroberfläche zum organisieren, auswählen und starten von media-artikeln |
CN1303552C (zh) | 2003-06-02 | 2007-03-07 | 英业达股份有限公司 | 网页块浏览的方法 |
JP2004363892A (ja) | 2003-06-04 | 2004-12-24 | Canon Inc | 携帯機器 |
JP2005018229A (ja) | 2003-06-24 | 2005-01-20 | Seiko Epson Corp | 文書閲覧端末、文書表示制御方法及び文書表示制御プログラム |
US20040268400A1 (en) | 2003-06-26 | 2004-12-30 | Microsoft Corporation | Quick starting video content |
US7210107B2 (en) | 2003-06-27 | 2007-04-24 | Microsoft Corporation | Menus whose geometry is bounded by two radii and an arc |
US8373660B2 (en) * | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7594194B2 (en) * | 2003-09-24 | 2009-09-22 | Nokia Corporation | Portrayal of navigation objects |
US20070124669A1 (en) | 2003-09-24 | 2007-05-31 | Nokia Corporation | Presentation of large objects on small displays |
US20050071778A1 (en) | 2003-09-26 | 2005-03-31 | Nokia Corporation | Method for dynamic key size prediction with touch displays and an electronic device using the method |
US20050071736A1 (en) | 2003-09-26 | 2005-03-31 | Fuji Xerox Co., Ltd. | Comprehensive and intuitive media collection and management tool |
US7290006B2 (en) | 2003-09-30 | 2007-10-30 | Microsoft Corporation | Document representation for scalable structure |
US20050071782A1 (en) | 2003-09-30 | 2005-03-31 | Barrett Peter T. | Miniaturized video feed generation and user-interface |
US7231231B2 (en) | 2003-10-14 | 2007-06-12 | Nokia Corporation | Method and apparatus for locking a mobile telephone touch screen |
FR2861206B1 (fr) | 2003-10-16 | 2006-11-24 | Michel Rissons | Procede et dispositif d'adaptation automatique d'affichage |
NO20034724D0 (no) | 2003-10-22 | 2003-10-22 | Opera Software Asa | Presentasjon av HTML-innhold på en skjermterminal |
FI116641B (fi) | 2003-10-24 | 2006-01-13 | Nokia Corp | Menetelmä elektronisessa laitteessa olevan pikavalinnan muuttamiseksi, laitteen näyttöyksikkö sekä elektroninen laite |
KR100537280B1 (ko) | 2003-10-29 | 2005-12-16 | 삼성전자주식회사 | 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법 |
US7814419B2 (en) | 2003-11-26 | 2010-10-12 | Nokia Corporation | Changing an orientation of a user interface via a course of motion |
US7085590B2 (en) | 2003-12-31 | 2006-08-01 | Sony Ericsson Mobile Communications Ab | Mobile terminal with ergonomic imaging functions |
EP1714481A1 (de) | 2004-01-29 | 2006-10-25 | Koninklijke Philips Electronics N.V. | Bildschirmsteuerung einer video-wiedergabeeinrichtung |
US7551187B2 (en) | 2004-02-10 | 2009-06-23 | Microsoft Corporation | Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking |
US7437005B2 (en) * | 2004-02-17 | 2008-10-14 | Microsoft Corporation | Rapid visual sorting of digital files and data |
JP2005234291A (ja) | 2004-02-20 | 2005-09-02 | Nissan Motor Co Ltd | 表示装置および表示方法 |
JP4438448B2 (ja) | 2004-02-26 | 2010-03-24 | セイコーエプソン株式会社 | 構造化文書表示処理装置、構造化文書表示方法、構造化文書表示プログラム |
US7788583B1 (en) | 2004-03-04 | 2010-08-31 | Google Inc. | In-page full screen internet video method |
JP2005267049A (ja) | 2004-03-17 | 2005-09-29 | Sharp Corp | 携帯情報機器、その制御方法、および、その制御プログラム |
US7546554B2 (en) | 2004-03-31 | 2009-06-09 | Fuji Xerox Co., Ltd. | Systems and methods for browsing multimedia content on small mobile devices |
WO2005106684A1 (ja) | 2004-04-30 | 2005-11-10 | Access Co., Ltd. | ブラウジング時の動的画像拡大/縮小表示のための方法、端末装置およびプログラム |
JP4063246B2 (ja) | 2004-05-11 | 2008-03-19 | 日本電気株式会社 | ページ情報表示装置 |
US20050283739A1 (en) | 2004-06-18 | 2005-12-22 | Julia Mohr | Method and system to improve usability of a web application by providing a zoom function |
US20050285880A1 (en) | 2004-06-23 | 2005-12-29 | Inventec Appliances Corporation | Method of magnifying a portion of display |
WO2006003591A2 (en) | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics, N.V. | Discontinuous zoom |
JP2006018645A (ja) * | 2004-07-02 | 2006-01-19 | Sharp Corp | 表示装置 |
EP3121697A1 (de) | 2004-07-30 | 2017-01-25 | Apple Inc. | Modusabhängige grafische benutzerschnittstellen für berührungsempfindliche eingabevorrichtungen |
WO2006020304A2 (en) | 2004-07-30 | 2006-02-23 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
US7724242B2 (en) | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US8560972B2 (en) | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US7721197B2 (en) | 2004-08-12 | 2010-05-18 | Microsoft Corporation | System and method of displaying content on small screen computing devices |
US7071939B2 (en) | 2004-08-12 | 2006-07-04 | Broadcom Corporation | Unique method for performing zoom-in and zoom-out operations with horizontal and vertical video decimation within a wireless device having a video display |
US8028250B2 (en) * | 2004-08-31 | 2011-09-27 | Microsoft Corporation | User interface having a carousel view for representing structured data |
EP1791329A4 (de) | 2004-09-17 | 2008-11-12 | Nikon Corp | Elektronische vorrichtung |
EP2239668B1 (de) | 2004-09-23 | 2015-09-09 | BlackBerry Limited | Graphische Benutzerschnittstelle für ein Web-Browser und Verfahren zur Implementierung derselben |
US20060064647A1 (en) | 2004-09-23 | 2006-03-23 | Tapuska David F | Web browser graphical user interface and method for implementing same |
US7345688B2 (en) | 2004-10-18 | 2008-03-18 | Microsoft Corporation | Semantic thumbnails |
WO2006042417A1 (en) | 2004-10-20 | 2006-04-27 | Mary Louise Jackson | Graphical interface for repetitive data entry and data visualization |
US8169410B2 (en) | 2004-10-20 | 2012-05-01 | Nintendo Co., Ltd. | Gesture inputs for a portable display device |
US20060123360A1 (en) | 2004-12-03 | 2006-06-08 | Picsel Research Limited | User interfaces for data processing devices and systems |
EP1677182B1 (de) | 2004-12-28 | 2014-04-23 | Sony Mobile Communications Japan, Inc. | Anzeigeverfahren, tragbares Endgerät und Anzeigeprogramm |
TW200622661A (en) | 2004-12-30 | 2006-07-01 | Tatung Co Ltd | Method of zooming out a display image for a portable electrical device |
KR101085447B1 (ko) | 2004-12-31 | 2011-11-21 | 삼성전자주식회사 | 터치 위치 검출 장치 및 이의 터치 위치 검출 방법과,이를 구비한 터치 스크린 표시 장치 |
KR101034439B1 (ko) * | 2005-01-25 | 2011-05-12 | 엘지전자 주식회사 | 터치 스크린 패턴 인식 기반의 멀티미디어 기기제어방법과 장치 |
US20060164382A1 (en) | 2005-01-25 | 2006-07-27 | Technology Licensing Company, Inc. | Image manipulation in response to a movement of a display |
WO2006094131A2 (en) | 2005-03-02 | 2006-09-08 | Guideworks, Llc | Playlists and bookmarks in an interactive media guidance application system |
US7587671B2 (en) | 2005-05-17 | 2009-09-08 | Palm, Inc. | Image repositioning, storage and retrieval |
US20070024646A1 (en) | 2005-05-23 | 2007-02-01 | Kalle Saarinen | Portable electronic apparatus and associated method |
US20060277588A1 (en) | 2005-06-01 | 2006-12-07 | Madison Software Inc. | Method for making a Web-DVD |
US9098597B2 (en) | 2005-06-03 | 2015-08-04 | Apple Inc. | Presenting and managing clipped content |
US7676767B2 (en) | 2005-06-15 | 2010-03-09 | Microsoft Corporation | Peel back user interface to show hidden functions |
US20070004451A1 (en) | 2005-06-30 | 2007-01-04 | C Anderson Eric | Controlling functions of a handheld multifunction device |
US20070067738A1 (en) | 2005-09-16 | 2007-03-22 | Microsoft Corporation | Extensible, filtered lists for mobile device user interface |
US7480870B2 (en) | 2005-12-23 | 2009-01-20 | Apple Inc. | Indication of progress towards satisfaction of a user input condition |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
CN101379461A (zh) | 2005-12-30 | 2009-03-04 | 苹果公司 | 具有多重触摸输入的便携式电子设备 |
US20070157228A1 (en) | 2005-12-30 | 2007-07-05 | Jason Bayer | Advertising with video ad creatives |
US7860536B2 (en) | 2006-01-05 | 2010-12-28 | Apple Inc. | Telephone interface for a portable communication device |
US7596761B2 (en) | 2006-01-05 | 2009-09-29 | Apple Inc. | Application user interface with navigation bar showing current and prior application contexts |
US7844661B2 (en) | 2006-06-15 | 2010-11-30 | Microsoft Corporation | Composition of local media playback with remotely generated user interface |
KR100781706B1 (ko) | 2006-08-16 | 2007-12-03 | 삼성전자주식회사 | 휴대 단말기의 리스트 스크롤 장치 및 방법 |
US8842074B2 (en) | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US20080062137A1 (en) | 2006-09-11 | 2008-03-13 | Apple Computer, Inc. | Touch actuation controller for multi-state media presentation |
US8214768B2 (en) | 2007-01-05 | 2012-07-03 | Apple Inc. | Method, system, and graphical user interface for viewing multiple application windows |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US9001047B2 (en) | 2007-01-07 | 2015-04-07 | Apple Inc. | Modal change based on orientation of a portable multifunction device |
US20080165148A1 (en) | 2007-01-07 | 2008-07-10 | Richard Williamson | Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content |
JP2009014796A (ja) | 2007-06-30 | 2009-01-22 | Sony Corp | El表示パネル、電源線駆動装置及び電子機器 |
JP2013222229A (ja) | 2012-04-12 | 2013-10-28 | Konica Minolta Inc | 入力操作装置、該装置を備えた画像形成装置、入力操作方法及び入力操作プログラム |
JP6004868B2 (ja) | 2012-09-27 | 2016-10-12 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20140092125A1 (en) | 2012-09-28 | 2014-04-03 | Apple Inc. | Filtering Documents Based on Device Orientation |
-
2007
- 2007-09-05 US US11/850,638 patent/US8842074B2/en active Active
- 2007-09-06 CN CN201210114287.1A patent/CN102681776B/zh active Active
- 2007-09-06 KR KR1020117023090A patent/KR20110115180A/ko not_active Application Discontinuation
- 2007-09-06 JP JP2009527566A patent/JP5409364B2/ja active Active
- 2007-09-06 AU AU2007289019A patent/AU2007289019B2/en active Active
- 2007-09-06 WO PCT/US2007/077773 patent/WO2008030972A1/en active Application Filing
- 2007-09-06 DE DE202007018420U patent/DE202007018420U1/de not_active Expired - Lifetime
- 2007-09-06 HK HK08110873.3A patent/HK1134887A2/xx not_active IP Right Cessation
- 2007-09-06 KR KR1020097007067A patent/KR101121516B1/ko active IP Right Grant
- 2007-09-06 EP EP07841980.1A patent/EP2069898B1/de active Active
-
2013
- 2013-11-05 JP JP2013229756A patent/JP5657082B2/ja active Active
-
2014
- 2014-09-22 US US14/493,128 patent/US9927970B2/en active Active
- 2014-11-25 JP JP2014238083A patent/JP6510799B2/ja active Active
-
2017
- 2017-11-08 US US15/807,283 patent/US10222977B2/en active Active
-
2019
- 2019-02-28 US US16/288,632 patent/US10838617B2/en active Active
-
2020
- 2020-11-16 US US17/098,672 patent/US11481112B2/en active Active
-
2022
- 2022-10-20 US US17/970,453 patent/US20230056879A1/en not_active Abandoned
-
2023
- 2023-11-29 US US18/523,621 patent/US20240094899A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6323846B1 (en) | 1998-01-26 | 2001-11-27 | University Of Delaware | Method and apparatus for integrating manual input |
US20020015024A1 (en) | 1998-01-26 | 2002-02-07 | University Of Delaware | Method and apparatus for integrating manual input |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009019563A1 (de) * | 2009-04-30 | 2010-11-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information |
DE102009019560A1 (de) * | 2009-04-30 | 2010-11-04 | Volkswagen Ag | Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information |
US10139988B2 (en) | 2009-04-30 | 2018-11-27 | Volkswagen Ag | Method and device for displaying information arranged in lists |
DE102011010229A1 (de) * | 2011-02-03 | 2012-08-09 | Audi Ag | Vorrichtung zur Bedienung mehrerer unterschiedlicher Funktionen eines Kraftfahrzeugs |
US9075468B2 (en) | 2011-02-03 | 2015-07-07 | Audi Ag | Device for controlling multiple different functions of a motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20090053851A (ko) | 2009-05-27 |
WO2008030972A1 (en) | 2008-03-13 |
JP5657082B2 (ja) | 2015-01-21 |
KR20110115180A (ko) | 2011-10-20 |
JP2010503126A (ja) | 2010-01-28 |
JP2015084233A (ja) | 2015-04-30 |
US10222977B2 (en) | 2019-03-05 |
KR101121516B1 (ko) | 2012-02-28 |
EP2069898B1 (de) | 2013-08-28 |
US20240094899A1 (en) | 2024-03-21 |
US20210389871A1 (en) | 2021-12-16 |
US11481112B2 (en) | 2022-10-25 |
US10838617B2 (en) | 2020-11-17 |
US20080094370A1 (en) | 2008-04-24 |
US20230056879A1 (en) | 2023-02-23 |
US20150082240A1 (en) | 2015-03-19 |
CN102681776B (zh) | 2015-05-06 |
AU2007289019B2 (en) | 2010-02-04 |
WO2008030972A8 (en) | 2008-05-02 |
US20190196709A1 (en) | 2019-06-27 |
JP2014067428A (ja) | 2014-04-17 |
EP2069898A1 (de) | 2009-06-17 |
CN102681776A (zh) | 2012-09-19 |
JP5409364B2 (ja) | 2014-02-05 |
US20180067643A1 (en) | 2018-03-08 |
US8842074B2 (en) | 2014-09-23 |
AU2007289019A1 (en) | 2008-05-01 |
US9927970B2 (en) | 2018-03-27 |
JP6510799B2 (ja) | 2019-05-08 |
HK1134887A2 (en) | 2010-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202007018420U1 (de) | Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt | |
DE112008000144B4 (de) | Scrollen von Listen und Verschieben, Skalieren und Rotieren von Dokumenten auf einer Berührungsbildschirmanzeige | |
US11921969B2 (en) | Portable electronic device, method, and graphical user interface for displaying structured electronic documents | |
DE202007019585U1 (de) | Tragbare elektronische Vorrichtung für Fotoverwaltung | |
DE112007002088T5 (de) | Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige | |
DE202008000268U1 (de) | Tragbare Multifunktionsvorrichtung | |
DE202008000259U1 (de) | Tragbare Multifunktionseinrichtung | |
DE202008000260U1 (de) | Tragbare Multifunktionsvorrichtung | |
DE202008000262U1 (de) | Tragbare Multifunktionsvorrichtung | |
DE112007002090T5 (de) | Voicemail-Manager für tragbare Multifunktionsvorrichtung | |
US20080165148A1 (en) | Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content | |
US11972104B2 (en) | Device, method, and graphical user interface for manipulating user interface objects | |
DE102015208532A1 (de) | Kontinuität | |
AU2008100174B4 (en) | Portable electronic device performing similar operations for different gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20080724 |
|
R150 | Utility model maintained after payment of first maintenance fee after three years |
Effective date: 20100923 |
|
R151 | Utility model maintained after payment of second maintenance fee after six years | ||
R151 | Utility model maintained after payment of second maintenance fee after six years |
Effective date: 20130917 |
|
R152 | Utility model maintained after payment of third maintenance fee after eight years | ||
R071 | Expiry of right |