DE202007018420U1 - Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt - Google Patents

Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt Download PDF

Info

Publication number
DE202007018420U1
DE202007018420U1 DE202007018420U DE202007018420U DE202007018420U1 DE 202007018420 U1 DE202007018420 U1 DE 202007018420U1 DE 202007018420 U DE202007018420 U DE 202007018420U DE 202007018420 U DE202007018420 U DE 202007018420U DE 202007018420 U1 DE202007018420 U1 DE 202007018420U1
Authority
DE
Germany
Prior art keywords
gesture
application
multifunction device
touch screen
portable multifunction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202007018420U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202007018420U1 publication Critical patent/DE202007018420U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Abstract

Tragbare Multifunktionsvorrichtung, umfassend:
eine Berührungsbildschirmanzeige;
einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden;
Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen:
Anweisungen zum Anzeigen einer Anwendung; und
Anweisungen zum Durchführen einer vordefinierten Operation in Antwort auf jede Geste eines Satzes von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vordefinierten Modus ist.

Description

  • TECHNISCHES GEBIET
  • Die offenbarten Ausführungsformen beziehen sich im Allgemeinen auf tragbare elektronische Vorrichtungen und genauer auf tragbare elektronische Vorrichtungen, die ähnliche Operationen in Antwort auf unterschiedliche Fingergesten durchführen.
  • HINTERGRUND
  • Da tragbare elektronische Vorrichtungen kompakter werden und die Anzahl an Funktionen, die durch eine gegebene Vorrichtung durchgeführt wird, zunimmt, ist es zu einer bedeutenden Herausforderung geworden, eine Benutzerschnittstelle zu entwerfen, die es Benutzern erlaubt, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders bedeutend für handgehaltene tragbare elektronische Vorrichtungen, die viel kleinere Bildschirme als Desktop- oder Laptop-Computer haben.
  • Ein bedeutender Aspekt des Messens der Benutzerfreundlichkeit einer Benutzerschnittstelle ist, ob die Benutzerschnittstelle verschiedene Arten von Benutzeraktionen akzeptiert, die derselben Funktion entsprechen. Verschiedene Benutzer können verschiedene Benutzeraktionen auf der Grundlage ihrer eigenen Vorlieben oder Gewohnheiten wählen. Ein Benutzer kann verschiedene Benutzeraktionen zu unterschiedlichen Zeiten wählen, abhängig davon, welche Benutzeraktion bequemer als andere zu einem bestimmten Augenblick ist.
  • Aber viele herkömmliche Benutzerschnittstellen, wie etwa diejenigen, die physische Drucktasten umfassen, haben oft keine solche Unflexibilität. Alle Benutzer müssen mit den Benutzerschnittstellen auf eine bestimmte Weise interagieren, um die gewünschten Ergebnisse zu erhalten, egal ob die Art und Weise entgegengesetzt den Vorlieben oder Gewohnheiten der meisten Benutzer ist. Wenn sie mit dem zeitaufwändigen Erfordernis verbunden wird, sich diese spezifische Art und Weisen zu merken, und der Schwierigkeit bei der Aktivierung einer gewünschten Drucktaste, wird solche Unflexibilität zunehmend frustrierender für die meisten Benutzer.
  • Dementsprechend besteht ein Bedürfnis für tragbare elektronische Vorrichtungen mit flexibleren und intuitiveren Benutzerschnittstellen, die ähnliche Operationen in Antwort auf unterschiedliche Fingergesten durchführen.
  • ZUSAMMENFASSUNG
  • Die obigen Unzulänglichkeiten und andere Probleme, die mit bekannten tragbaren Vorrichtungen verbunden sind, werden durch die offenbarte Vorrichtung verringert oder beseitigt. In manchen Ausführungsformen hat die tragbare elektronische Vorrichtung eine berührungsempfindliche Anzeige (auch bekannt als „Berührungsbildschirm" oder „Berührungsbildschirmanzeige") mit einer grafischen Benutzerschnittstelle (GUI), einen oder mehrere Prozessoren, Speicher und ein oder mehrere Module, Programme oder Anweisungssätze, die im Speicher gespeichert sind, um mehrere Funktionen durchzuführen. In manchen Ausführungsformen interagiert der Benutzer mit der GUI primär durch Fingerkontakte und Gesten auf der berührungsempfindlichen Anzeige. Zum Durchführen von Operationen können Anweisungen in einem computer-lesbaren Speichermedium oder anderem Computerprogrammprodukt enthalten sein, das zur Ausführung durch einen oder mehr Prozessoren konfiguriert ist.
  • Ein Aspekt der Erfindung betrifft eine tragbare elektronische Vorrichtung. Die Vorrichtung umfasst eine Berührungsbildschirmanzeige, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme. Das eine oder die mehreren Programme sind im Speicher gespeichert und so konfiguriert, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden. Das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer Anwendung; und Anweisungen zum Durchführen einer vorbestimmten Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vorbestimmten Modus ist.
  • Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt, das ein computer-lesbares Speichermedium und einen Computerprogrammmechanismus (z. B. ein oder mehrere Computerprogramme) umfasst, die darin eingebettet sind. Der Computerprogrammmechanismus umfasst Anweisungen, die, wenn sie durch eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, die Vorrichtung dazu veranlassen: eine Anwendung anzuzeigen; und wenn die Anwendung in einem vordefinierten Modus ist, eine vordefinierte Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige durchzuführen.
  • Ein weiterer Aspekt der Erfindung betrifft eine grafische Benutzerschnittstelle (GUI) auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige. Die GUI zeigt eine Anwendung in einem vordefinierten Modus an und die Anwendung führt eine vordefinierte Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige durch.
  • Ein weiterer Aspekt der Erfindung betrifft eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige, umfassend: Mittel zum Anzeigen einer Anzeige; und Mittel zum Durchführen einer vorbestimmten Operation in Antwort auf jede Geste aus einem Satz von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vorbestimmten Modus ist.
  • Somit stellt die Erfindung eine transparente und intuitive Benutzerschnittstelle zur Verfügung, die verschiedene Operationen in Antwort auf unterschiedliche Fingergesten auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige durchführt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der eben erwähnten Ausführungsformen der Erfindung sowie zusätzlicher Ausführungen davon sollte auf die Beschreibung der Ausführungsformen unten Bezug genommen werden, im Zusammenhang mit den folgenden Zeichnungen, in denen gleiche Bezugszeichen auf entsprechende Teile überall in den Figuren Bezug nehmen.
  • 1 ist ein Blockdiagramm, das eine tragbare elektronische Vorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit manchen Ausführungsformen darstellt.
  • 2 stellt eine tragbare elektronische Vorrichtung dar, die einen Berührungsbildschirm hat, in Übereinstimmung mit manchen Ausführungsformen.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entriegeln einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar.
  • 4 stellt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar.
  • 5 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten von Alben in Übereinstimmung mit manchen Ausführungsformen dar.
  • 6 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten eines Albums in Übereinstimmung mit manchen Ausführungsformen dar.
  • 7 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten vergrößerter Bilder in einem Album in Übereinstimmung mit manchen Ausführungsformen dar.
  • 8A bis 8D stellen beispielhafte Benutzerschnittstellen für einen Browser in Übereinstimmung mit manchen Ausführungsformen dar.
  • 9 ist ein verallgemeinertes Flussdiagramm, das einen Prozess zum Durchführen einer vordefinierten Operation auf das Detektieren mehrerer Arten von Benutzergesten auf dem Berührungsbildschirm der tragbaren elektronischen Vorrichtung hin in Übereinstimmung mit manchen Ausführungsformen darstellt.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Es wird jetzt im Detail auf Ausführungsformen Bezug genommen, von denen Beispiele in den angehängten Zeichnungen illustriert sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der Erfindung zu verschaffen. Es wird jedoch für den Durchschnittsfachmann offensichtlich werden, dass die Erfindung ohne diese spezifischen Details praktiziert werden kann. In anderen Fällen wurden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben, um die Aspekte der Ausführungsformen nicht unnötigerweise zu verschleiern.
  • Es wird auch verstanden werden, dass obwohl die Begriffe erster, zweiter, usw. hier verwendet werden mögen, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt werden sollten. Diese Begriffe werden nur verwendet, um ein Element vom anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste eine zweite Geste genannt werden, und in ähnlicher Weise könnte eine zweite Geste eine erste Geste genannt werden, ohne vom Bereich der vorliegenden Erfindung abzuweichen.
  • Die Terminologie, die in der Beschreibung der Erfindung hier verwendet wird, dient nur dem Beschreiben bestimmter Ausführungsformen und soll die Erfindung nicht beschränken. Wie sie in der Beschreibung der Erfindung und den angehängten Ansprüchen verwendet werden, sollen die Singularformen „ein"/"eine" und „der"/"die"/"das" auch die Pluralformen einschließen, es sei denn, der Kontext zeigt klar etwas anderes an. Es wird auch verstanden werden, dass der Ausdruck „und/oder", wie er hier verwendet wird, auf alle und jede möglichen Kombinationen aus einem oder mehreren der assoziierten aufgelisteten Gegenstände Bezug nimmt und sie umfasst. Es wird weiterhin verstanden werden, dass die Ausdrücke „umfasst" und/oder „umfassend", wenn sie in dieser Schrift verwendet werden, die Anwesenheit von erwähnten Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen und/oder Komponenten spezifizieren, aber nicht die Anwesenheit oder Hinzufügung von einem oder mehreren Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon ausschließen.
  • Wie er hier verwendet wird, kann der Ausdruck „wenn" so ausgelegt werden, dass er „immer wenn" oder „auf ... hin" oder „in Antwort auf Bestimmung" oder „in Antwort auf Detektieren" bedeutet, abhängig vom Kontext. Ähnlich kann der Satz „wenn bestimmt wird" oder „wenn [eine angegebene Bedingung oder ein Ereignis] detektiert wird" so ausgelegt werden, dass er „auf Bestimmen hin" oder „in Antwort auf Bestimmen" oder „auf Detektieren [die angegebene Bedingung oder das Ereignis]" oder „in Antwort auf Detektieren [angegebene Bedingung oder Ereignis]" bedeutet, abhängig vom Kontext.
  • Ausführungsformen einer tragbaren elektronischen Vorrichtung, von Benutzerschnittstellen für solche Vorrichtungen und assoziierte Prozesse zum Verwenden solcher Vorrichtungen werden beschreiben. In manchen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie etwa ein Mobiltelefon, das auch andere Funktionen enthält, wie etwa PDA und/oder Musikspielfunktionen.
  • Die Benutzerschnittstelle kann ein physisches Klickrad zusätzlich zu einem Berührungsbildschirm umfassen, oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird. Ein Klickrad ist eine physische Benutzerschnittstellenvorrichtung, die Navigationsbefehle auf der Grundlage einer Winkelverschiebung des Rades oder eines Kontaktpunktes mit dem Rad durch einen Benutzer der tragbaren elektronischen Vorrichtung zur Verfügung stellt. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl entsprechend der Auswahl aus einem oder mehreren Gegenständen zur Verfügung zu stellen, z. B. wenn der Benutzer der tragbaren elektronischen Vorrichtung mindestens einen Teil des Rades oder den Mittelpunkt des Rades herunterdrückt. Alternativ kann das Unterbrechen des Kontaktes mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der Auswahl entspricht. Der Einfachheit halber wird in der Diskussion, die folgt, eine tragbare elektronische Vorrichtung, die einen Berührungsbildschirm umfasst, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass manche Benutzerschnittstellen und assoziierte Prozesse auf andere Vorrichtungen, wie etwa Personal Computer und Laptop-Computer angewendet werden können, die eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen umfassen können, wie etwa ein physisches Klickrad, eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt eine Reihe von Anwendungen, wie etwa eine oder mehrere aus den folgenden: eine Telefonanwendung, eine Videokonferenzanwendung, eine Emailanwendung, eine Sofortmitteilungsanwendung, eine Blockanwendung, eine Fotoverwaltungsanwendung, eine Digitalkameraanwendung, eine Digitalvideokameraanwendung, eine Webbrowseranwendung, eine Digitalmusikspieleranwendung und/oder eine Digitalvideospieleranwendung.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können mindestens eine gemeinsame physische Benutzerschnittstellevorrichtung verwenden, wie etwa den Berührungsbildschirm. Eine oder mehrere Funktionen des Berührungsbildschirms sowie entsprechende Funktionen, die auf der Vorrichtung angezeigt werden, können von einer Anwendung auf die nächste und/oder innerhalb einer entsprechenden Anwendung angepasst und/oder variiert werden. Auf diese Weise kann eine gemeinsame physische Architektur (wie etwa ein Berührungsbildschirm) der Vorrichtung eine Reihe von Anwendungen mit Benutzerschnittstellen unterstützen, die intuitiv und transparent sind.
  • Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen umfassen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standardkonfigurationen von Symbolen auf den angezeigten Icons der Tastatur umfassen, wie etwa diejenigen, die in den US-Patentanmeldungen 11/459,606, „Tastaturen für tragbare elektronische Vorrichtungen" eingereicht am 24. Juli 2006, und 11/459,615 „Berührungsbildschirmtastaturen für tragbare elektronische Vorrichtungen", eingereicht am 24. Juli 2006, beschrieben sind, deren Inhalte hier per Verweis mit eingebunden werden. Die Tastaturausführungsformen können eine verringerte Anzahl an Icons (oder Softtasten) relativ zur Anzahl an Tasten in existierenden physischen Tastaturen umfassen, wie etwa derjenigen für eine Schreibmaschine. Dies kann es für Benutzer einfacher machen, eines oder mehrere Icons in der Tastatur auszuwählen, und somit eines oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können die angezeigten Icons in Übereinstimmung mit Benutzerak tionen modifiziert werden, wie etwa Auswählen eines oder mehrerer Icons und/oder eines oder mehrerer entsprechender Symbole. Eine oder mehrere Anwendungen auf der tragbaren elektronischen Vorrichtung können gemeinsame und/oder unterschiedliche Tastaturausführungsformen verwenden. Somit kann die verwendete Tastaturausführungsform mindestens auf manche der Anwendungen zugeschnitten werden. In manchen Ausführungsformen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel auf der Grundlage eines Wortbenutzungsverlaufs (Lexikographie, Jargon, individuelle Verwendung) des entsprechenden Benutzers. Manche der Tastaturausführungsformen können angepasst werden, um eine Wahrscheinlichkeit eines Benutzerfehlers zu verringern, wenn er eines oder mehrere Icons und somit eines oder mehrere Symbole auswählt, wenn er die Softtastaturausführungsformen benutzt.
  • Die Aufmerksamkeit wird jetzt auf Ausführungsformen der Vorrichtung gelenkt. 1 ist ein Blockdiagramm, das eine tragbare elektronische Vorrichtung 100 mit einer berührungsempfindlichen Anzeige 112 in Übereinstimmung mit manchen Ausführungsformen darstellt. Die berührungsempfindliche Anzeige 112 wird manchmal aus Gründen der Praktikabilität „Berührungsbildschirm" genannt. Die Vorrichtung 100 kann einen Speicher 102 umfassen (der ein oder mehrere computer-lesbare Speichermedien umfassen kann), eine Speichersteuerung 122, eine oder mehrere Prozessoreinheiten (CPUs) 120, eine Peripherieschnittstelle 118, RF-Schaltung 108, Audioschaltung 110, einen Lautsprecher 111, ein Mikrofon 113, ein Eingabe-/Ausgabe-(E/A)-Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Port 124. Die Vorrichtung 100 kann auch einen oder mehrere optische Sensoren 164 umfassen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103 kommunizieren.
  • Es sollte erkannt werden, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren elektronischen Vorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt haben kann, zwei oder mehr Komponenten kombinieren kann oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten haben kann. Die verschiedenen Komponenten, die in 1 gezeigt sind, können in Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, einschließlich einer oder mehrerer signalverarbeitender und/oder anwendungsspezifischer integrierter Schaltungen.
  • Der Speicher 102 kann Hochgeschwindigkeitslese- und -schreibspeicher umfassen und kann auch nicht-flüchtigen Speicher umfassen, wie etwa eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Halbleiterspeichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie etwa der CPU 120, und der Peripherieschnittstelle 118 kann durch die Speichersteuerung 122 gesteuert werden.
  • Die Peripherieschnittstelle 118 verbindet die Eingabe- und Ausgabeperipherien der Vorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 lassen verschiedene Softwareprogramme und/oder Anweisungssätze, die im Speicher 102 gespeichert sind, laufen oder führen sie aus, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten.
  • In manchen Ausführungsformen können die Peripherieschnittstelle 118, die CPU und die Speichersteuerung 122 auf einem einzigen Chip implementiert werden, wie etwa einem Chip 104. In manchen anderen Ausführungsformen können sie auf getrennten Chips implementiert sein.
  • Die RF-(Funkfrequenz)-Schaltung 108 empfängt und sendet RF-Signale, auch genannt elektromagnetische Signale. Die RF-Schaltung 108 wandelt elektrische Signale in/aus elektromagnetische(n) Signale(n) um und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die e lektromagnetischen Signale. Die RF-Schaltung 108 kann wohlbekannte Schaltung zum Durchführen dieser Funktionen umfassen, einschließlich – aber nicht beschränkt auf – ein Antennensystem, einen RF-Sendeempfänger, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen Digitalsignalprozessor, ein CODEC-Chipset, eine Benutzeridentitätsmodul-(SIM)-Karte, Speicher, usw. Die RF-Schaltung 108 kann mit Netzwerken wie etwa dem Internet, kommunizieren, das auch World Wide Web (WWW) genannt wird, einem Intranet und/oder einem drahtlosen Netzwerk, wie etwa einem Mobiltelefonnetzwerk, einem drahtlosen lokalen Netzwerk (LAN) und/oder einem regionalen Netzwerk (MAN) und anderen Vorrichtungen durch drahtlose Kommunikation. Die drahtlose Kommunikation kann beliebige aus einer Mehrzahl von Kommunikationsstandards, Protokollen und Technologien verwenden, einschließlich – aber nicht beschränkt auf – das globale System für mobile Kommunikation (GSM), verbesserte Daten-GSM-Umgebung (EDGE), Breitband-Codeteilungsmehrfachzugang (WCDMA), Codeteilungsmehrfachzugang (CDMA), Zeitteilungsmehrfachzugang (TDMA), Bluetooth, Wireless Fidelity (WiFi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), Sprache über Internet Protocol (VoIP), Wi-MAX, ein Protokoll für Email, Sofortmitteilungen und/oder Kurznachrichtenservice (SMS), oder irgendein anderes geeignetes Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, die zum Zeitpunkt des Einreichens dieses Dokuments noch nicht entwickelt sind.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrofon 112 liefern eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100. Die Audioschaltung 110 empfängt Audiodaten von der Peripherschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal um und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 wandelt das elektrische Signal in menschen-hörbare Schallwellen um. Die Audioschaltung 110 empfängt auch elektrische Signale, die durch das Mikrofon 112 aus Schallwellen umgewandelt wurden. Die Audioschaltung 110 wandelt die elektrischen Signale in Audiodaten um und überträgt die Audiodaten an die Peripherieschnittstelle 118 zur Verarbei tung. Audiodaten können erhalten werden vom und/oder übertragen werden an den Speicher 102 und/oder die RF-Schaltung 108, durch die Peripherieschnittstelle 118. In manchen Ausführungsformen umfasst die Audioschaltung 110 auch eine Kopfhörerbuchse (nicht dargestellt). Die Kopfhörerbuchse stellt eine Schnittstelle zwischen der Audioschaltung 110 und entfernbaren Audio-Eingabe-/Ausgabeperipherien dar, wie etwa Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) und Eingabe (z. B. ein Mikrofon).
  • Das E/A-Untersystem 106 verbindet Eingabe-/Ausgabeperipherien mit der Vorrichtung 100, wie etwa den Berührungsbildschirm 112 und andere Eingabe-/Steuerungsvorrichtungen 116 mit der Peripherieschnittstelle 118. Das E/A-Untersystem 106 kann eine Anzeigesteuerung 156 und eine oder mehrere Eingabesteuerungen 160 für andere Eingabe- oder Steuervorrichtungen umfassen. Die eine oder mehreren Eingabensteuerungen 160 empfangen/senden elektrische Signal von/zu anderen Eingabe-/oder Steuervorrichtungen 116. Die anderen Eingabe-/Steuervorrichtungen 116 können physische Tasten (z. B. Drucktasten, Wipptasten, usw.), Räder, Schieberschalter, Joysticks, Klickräder, usw., enthalten. In manchen alternativen Ausführungsformen können die Eingabesteuerung(en) 160 mit irgendeinem (oder keinem) aus dem Folgenden verbunden sein: eine Tastatur, Infrarotport, USB-Port und eine Zeigevorrichtung, wie etwa eine Maus. Die eine oder mehreren Tasten (z. B. 208, 2) können eine Oben-/Untentaste zur Lautstärkesteuerung des Lautsprechers 111 und/oder des Mikrofons 113 umfassen. Die eine oder mehreren Tasten können eine Drucktaste (z. B. 206, 2) umfassen. Ein kurzer Druck der Drucktaste kann eine Verriegelung des Berührungsbildschirms 112 deaktivieren oder einen Prozess starten, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entriegeln, wie in der US-Patentanmeldung 11/322,549 „Entriegeln einer Vorrichtung durch Durchführen von Gesten auf einem Entriegelungsbild", eingereicht am 23. Dezember 2005, beschrieben ist, die hiermit per Verweis mit eingebunden wird. Ein längeres Drücken auf die Drucktaste (z. B. 106) kann den Strom zur Vorrichtung 100 an- oder ausschalten. Der Benutzer kann eine Funktionalität einer oder mehrerer Tasten anpassen können. Der Berührungsbildschirm 112 wird verwendet, um virtuelle oder Softtasten und eine oder mehrere Softtastaturen zu implementieren.
  • Der berührungsempfindliche Berührungsbildschirm 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer zur Verfügung. Die Anzeigesteuerung 156 empfängt und/oder sendet elektrische Signale vom/zum Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt dem Benutzer visuelle Ausgabe an. Die visuelle Ausgabe kann Grafik, Text, Icons, Video und irgendeine Kombination daraus (zusammen „Grafik" genannt) umfassen. In manchen Ausführungsformen können manche oder alle visuellen Ausgaben Benutzerschnittstellenobjekten entsprechen, deren weitere Details unten beschrieben werden.
  • Ein Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder einen Sensorsatz, der Eingabe vom Benutzer auf der Grundlage eines haptischen und/oder Berührungskontaktes akzeptiert. Der Berührungsbildschirm 112 und die Anzeigesteuerung 156 (zusammen mit jeglichen assoziierten Modulen und/oder Anweisungssätzen im Speicher 102) detektiert Kontakt (und jegliche Bewegung oder Unterbrechung des Kontakts) auf dem Berührungsbildschirm 112 und wandelt den detektierten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Icons, Webseiten oder Bilder) um, die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen einem Berührungsbildschirm 112 und dem Benutzer einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 kann LCD-(Flüssigkristallanzeige)-Technologie verwenden, oder LPD-(Licht emittierende Polymeranzeige)-Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden können. Der Berührungsbildschirm 112 und die Anzeigesteuerung 156 können Kontakt und jegliche Bewegung oder Unterbrechung davon detektieren, unter Verwendung irgendeiner aus einer Mehrzahl von Berührungsabtasttechnologien, die jetzt bekannt sind oder später entwickelt werden, einschließlich – aber nicht beschränkt auf – kapazitive, Widerstands-, Infrarot- und Oberflächenakustikwellentechnologien, sowie andere Näherungssensorfelder oder andere Elemente zum Bestimmen eines oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm 112. Eine berührungsempfindliche Anzeige kann in manchen Ausführungsformen des Berührungsbildschirms 112 analog zu den mehrfachberührungsempfindlichen Tablets sein, die in den folgenden US-Patenten beschrieben sind: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.) und/oder 6,677,932 (Westerman) und/oder US-Patentveröffentlichung 2002/0015024A1 , die jeweils hiermit per Verweis mit eingebunden werden. Ein Berührungsbildschirm 112 zeigt jedoch visuelle Ausgabe von der tragbaren elektronischen Vorrichtung 100 an, während berührungsempfindliche Tablets keine visuelle Ausgabe liefern. Der Berührungsbildschirm 112 kann z. B. eine Auflösung über 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm im Anzeigesystem eine Auflösung von ungefähr 168 dpi. Der Benutzer kann Kontakt mit dem Berührungsbildschirm 112 herstellen, indem er irgendein geeignetes Objekt oder Anhängsel verwendet, wie etwa einen Stift, einen Finger, usw. In manchen Ausführungsformen ist die Benutzerschnittstelle so entworfen, dass sie primär mit fingerbasierten Kontakten und Gesten arbeitet, was viel weniger präzise als stiftbasierte Eingabe ist, wegen des größeren Kontaktgebiets eines Fingers auf dem Berührungsbildschirm. In manchen Ausführungsformen übersetzt die Vorrichtung die rohe fingerbasierte Eingabe in eine präzise Zeiger-/Cursorposition oder einen Befehl zum Durchführen der Aktionen, die vom Benutzer gewünscht sind.
  • Eine berührungsempfindliche Anzeige kann in manchen Ausführungsformen des Berührungsbildschirms 112 so wie in den folgenden Anmeldungen beschrieben sein: (1) US-Patentanmeldung Nr. 11/381,313, „Mehrpunkt Berührungsoberflächensteuerung", eingereicht am 2. Mai 2006; (2) US-Patentanmeldung Nr. 10/840,862, „Mehrpunkt-Berührungsbildschirm", eingereicht am 6. Mai 2005; (3) US-Patentanmeldung Nr. 10/903,964, „Gesten für berührungsempfindliche Eingabevorrichtungen", eingereicht 30. Juli 2004; (4) US-Patentanmeldung Nr. 11/048,264, „Gesten für berührungsempfindliche Eingabevorrichtungen", eingereicht am 31. Januar 2005; (5) US-Patentanmeldung Nr. 11/038,590, „Modusbasierte grafische Benutzerschnittstellen für berührungsempfindliche Eingabevorrichtungen", eingereicht am 18. Januar 2005; (6) US-Patentanmeldung Nr. 11/228,758, „Virtuelle Eingabevorrichtungsplatzierung auf einer Berührungsbildschirm-Benutzerschnittstelle", eingereicht am 16. September 2005; (7) US-Patentanmeldung Nr. 11/228,700, „Operation eines Computers mit einer Berührungsbildschirmschnittstelle", eingereicht am 16. September 2005; (8) US-Patentanmeldung Nr. 11/228,737, „Aktivieren virtueller Tasten einer virtuellen Berührungsbildschirmtastatur", eingereicht am 16. September 2005; und (9) US-Patentanmeldung Nr. 11/367,749, „Multifunktionale handgehaltene Vorrichtung", eingereicht am 3. März 2006. All diese Anmeldungen werden hier per Verweis mit eingebunden.
  • In manchen Ausführungsformen kann die Vorrichtung 100 zusätzlich zum Berührungsbildschirm ein Berührungsfeld (nicht dargestellt) haben, um bestimmte Funktionen zu aktivieren oder zu deaktivieren. In manchen Ausführungsformen ist das Berührungsfeld ein berührungsempfindliches Gebiet der Vorrichtung, das im Unterschied zum Berührungsbildschirm keine visuelle Ausgabe anzeigt. Das Berührungsfeld kann eine berührungsempfindliche Oberfläche sein, die vom Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die durch den Berührungsbildschirm gebildet wird.
  • In manchen Ausführungsformen kann die tragbare elektronische Vorrichtung 100 ein physisches oder virtuelles Klickrad als eine Eingabesteuerungsvorrichtung 116 umfassen. Ein Benutzer kann navigieren zwischen und interagieren mit einem oder mehreren grafischen Objekten (im Weiteren Icons genannt), die auf dem Berührungsbildschirm 112 angezeigt werden, durch Rotieren des Klickrads oder durch Bewegen eines Kontaktpunkts mit dem Klickrad (z. B. wo die Größe der Bewegung des Kontaktpunkts durch seine Winkelversetzung in Bezug auf einen Mittelpunkt des Klickrads gemessen wird). Das Klickrad kann auch verwendet werden, um ein oder mehrere angezeigte Icons anzuwählen. Zum Beispiel kann der Benutzer auf mindestens einem Teil des Klickrads eine assoziierte Taste herunterdrücken. Benutzerbefehle und Navigationsbefehle, die durch den Benutzer über das Klickrad geliefert werden, können durch eine Eingabesteuerung 160 sowie ein oder mehrere der Module und/oder Anweisungssätze im Speicher 102 verarbeitet werden. Für ein virtuelles Klickrad können das Klickrad und die Klickradsteuerung Teil des Berührungsbildschirms 112 bzw. der Anzeigesteuerung 156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein undurchsichtiges oder semitransparentes Objekt sein, das auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung erscheint und verschwindet. In manchen Ausführungsformen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt und durch Benutzerkontakt mit dem Berührungsbildschirm bedient.
  • Die Vorrichtung 100 umfasst auch ein Stromversorgungssystem 162 zum Versorgen der verschiedenen Komponenten mit Strom. Das Stromversorgungssystem 162 kann ein Stromversorgungsverwaltungssystem umfassen, eine oder mehrere Energiequellen (z. B. eine Batterie, Wechselstrom (AC)), ein Aufladesystem, eine Stromunterbrechungsdetektionsschaltung, einen Stromumwandler oder Inverter, einen Stromversorgungsstatusindikator (z. B. eine Licht emittierende Diode (LED)) und jegliche anderen Komponenten, die mit der Erzeugung, Verwaltung und Verteilung von Strom in tragbaren elektronischen Vorrichtungen assoziiert sind.
  • Die Vorrichtung 100 kann auch einen oder mehrere optische Sensoren 164 umfassen. 1 zeigt einen optischen Sensor, der mit einer optischen Sensorsteuerung 158 im E/A-Untersystem 106 verbunden ist. Der optische Sensor 164 kann ladungsgebundene Vorrichtung (CCD) oder komplementäre Metalloxidhalbleiter-(CMOS)-Fototransistoren umfassen. Der optische Sensor 164 empfängt Licht aus der Umgebung, projiziert durch eine oder mehrere Linsen, und wandelt das Licht in Daten um, die ein Bild darstellen. Im Zusammenhang mit einem Bilderstellungsmodul 143 (manchmal Kameramodul genannt) kann der optische Sensor 164 stehende Bilder oder Video aufnehmen. In manchen Ausführungsformen befindet sich der optische Sensor auf der Rückseite der Vorrichtung 100, gegenüber der Berührungsbildschirmanzeige 112 auf der Vorderseite der Vorrichtung, so dass die Berührungsbildschirmanzeige als Sucher für entweder Still-/und/oder Videobildaufnahme verwendet werden kann. In manchen Ausführungsformen befindet sich ein optischer Sensor auf der Vorderseite der Vorrichtung, so dass das Bild des Benutzers für Videokonferenzen erhalten werden kann, während der Benutzer die anderen Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In manchen Ausführungsformen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Rotieren der Linse und des Sensors im Vorrichtungsgehäuse), so dass ein einziger optischer Sensor 164 zusammen mit der Berührungsbildschirmanzeige sowohl für Videokonferenzen als auch für stehende und/oder Videobildaufnahme verwendet werden kann.
  • Die Vorrichtung 100 kann auch einen oder mehrere Näherungssensoren 166 umfassen. 1 zeigt einen Näherungssensor 166, der mit der Peripherieschnittstelle 118 verbunden ist. Alternativ kann der Näherungssensor 166 mit einer Eingabesteuerung 160 im E-/A-Untersystem 106 verbunden sein. Der Näherungssensor 166 kann so arbeiten, wie beschrieben in den US-Patentanmeldungen Nr. 11/241,839 „Nähedetektor in handgehaltener Vorrichtung", eingereicht am 30. September 2005, und 11/240,788 „Nähedetektor in handgehaltener Vorrichtung", eingereicht am 30. September 2005, die hiermit per Referenz mit eingebunden werden. In manchen Ausführungsformen schaltet der Näherungssensor den Berührungsbildschirm 112 aus und deaktiviert ihn, wenn die Multifunktionsvorrichtung nahe des Ohrs des Benutzers platziert wird (z. B. wenn der Benutzer einen Telefonanruf macht). In manchen Ausführungsformen lässt der Näherungssensor den Bildschirm aus, wenn die Vorrichtung in der Tasche, Handtasche oder einer anderen dunklen Umgebung ist, um unnötige Batterieentleerung zu verhindern, wenn die Vorrichtung sich in einem verriegelten Zustand befindet.
  • In manchen Ausführungsformen können die Softwarekomponenten, die im Speicher 102 gespeichert sind, ein Betriebssystem 126 umfassen, ein Kommunikationsmodul (oder einen Anweisungssatz) 128, ein Kontakt-Bewegungsmodul (oder einen Anweisungssatz) 130, ein Grafikmodul (oder einen Anweisungssatz) 132, ein Texteingabemodul (oder einen Anweisungssatz) 134, ein globales Positionssystem-(GPS)-Modul (oder einen Anweisungssatz) 135 und Anwendungen (oder einen Anweisungssatz) 136.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie etwa VxWorks) umfasst verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichervorrichtungssteuerung, Stormversorgungsverwaltung, usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Ports 124 und umfasst auch verschiedene Softwarekomponenten zum Handhaben von Daten, die durch die RF-Schaltung 108 und/oder den externen Port 124 empfangen werden. Der externe Port 124 (z. B. universeller serieller Bus (USB), FIREWIRE, usw.) ist dazu angepasst, direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.) zu verbinden. In manchen Ausführungsformen ist der externe Port ein Multigin-(30-Pin)-Stecker, der der gleiche ist oder ähnlich zu und/oder kompatibel mit dem 30-Pin-Steckder, der auf den iPod-(Handelsmarke von Apple Computer, Inc.)-Geräten verwendet wird.
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dem Berührungsbildschirm 112 (zusammen mit der Anzeigesteuerung 156) und anderen berührungsempfind lichen Vorrichtungen (z. B. einem Berührungsfeld oder physischen Klickrad) detektieren. Das Kontakt-/Bewegungsmodul 130 umfasst verschiedene Softwarekomponenten zum Durchführen verschiedener Operationen, die sich auf Kontaktdetektion beziehen, wie etwa Bestimmen, ob Kontakt aufgetreten ist, Bestimmen, ob es Bewegung des Kontakts gibt und Nachverfolgen der Bewegung über den Berührungsbildschirm 112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen der Bewegung des Kontaktpunkts kann Bestimmen von Schnelligkeit (Größe), Geschwindigkeit (Größe und Richtung) und/oder einer Beschleunigung (eine Änderung in Größe und/oder Richtung) des Kontaktpunkts umfassen. Diese Operationen können auf einzelne Kontakte (z. B. Ein-Finger-Kontakte) oder auf mehrere gleichzeitige Kontakte (z. B. „Mehrfachberührung"/Mehrfingerkontakte) angewendet werden. In manchen Ausführungsformen detektieren das Kontakt-/Bewegungsmodul 130 und die Anzeigesteuerung 156 auch Kontakt auf einem Kontaktfeld. In manchen Ausführungsformen detektieren das Kontakt-/Bewegungsmodul 130 und die Steuerung 160 Kontakt auf einem Klickrad 116.
  • Das Grafikmodul 132 umfasst verschiedene bekannte Softwarekomponenten zum Darstellen und Anzeigen von Grafik auf dem Berührungsbildschirm 112, einschließlich Komponenten zum Ändern der Helligkeit von Grafiken, die angezeigt werden. So wie er hier verwendet wird, umfasst der Ausdruck „Grafik" jedes Objekt, das dem Benutzer angezeigt werden kann, einschließlich ohne Beschränkung Text, Webseiten, Icons (wie etwa Benutzerschnittstellenobjekte einschließlich Softtasten), digitale Bilder, Videos, Animationen und Ähnliches.
  • Das Texteingabemodul 134, das eine Komponente des Grafikmoduls 132 sein kann, liefert Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen (z. B. Kontakte 137, Email-Clients 140, IM 141, Blogging 142, Browser 147 und jegliche andere Anwendung, die Texteingabe benötigt).
  • Das GPS-Modul 135 bestimmt die Position der Vorrichtung und liefert diese Information zur Verwendung in verschiedenen Anwendungen (z. B. an das Telefon 138 zur Verwendung in positionsbasiertem Wählen an die Kamera 143 und/oder den Blogger 142 als Bild-/Videometadaten, und an Anwendungen, die positionsbasierte Dienste liefern, wie etwa Wetterwidgets, örtliche Gelbe-Seiten-Widgets und Karten-Navigationswidgets).
  • Die Anwendung 136 kann die folgenden Module (oder Anweisungssätze) oder eine Untermenge oder eine Obermenge davon umfassen:
    • • ein Kontaktemodul 137 (manchmal Adressbuch oder Kontaktliste genannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein Email-Client-Modul 140;
    • • ein Sofort-Mitteilungs-(IM)-Modul 141;
    • • ein Blogging-Modul 142,
    • • ein Kameramodul 143 für stehende- und/oder Videobilder;
    • • ein Bildverwaltungsmodul 144;
    • • ein Videospielermodul 145;
    • • ein Musikspielermodul 146;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widgetmodule 149, die Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und andere Widgets enthalten können, die durch den Benutzer erhalten werden, sowie benutzererzeugte Widgets 149-6;
    • • Widget-Erzeugermodul 150 zum Erstellen benutzererzeugter Widgets 149-6; und/oder
    • • Suchmodul 151.
  • Beispiele für andere Anwendungen 136, die im Speicher 102 gespeichert werden können, umfassen ein Memofeld und andere Textverarbeitungsanwendungen, JAVA-unterstützte Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachwiedergabe.
  • Im Zusammenhang mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 kann das Bildverwaltungsmodul 144 verwendet werden, um stehende und/oder Videobilder anzuordnen, zu modifizieren oder sonst zu manipulieren, etikettieren, löschen, darzustellen (z. B. in einer digitalen Diaschau oder einem Album) und zu speichern. Ausführungsformen von Benutzerschnittstellen und assoziierten Prozessen, die das Bildverwaltungsmodul 144 verwenden, werden unten weiter beschrieben.
  • Im Zusammenhang mit der RF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesystemsteuerung 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 kann das Browser-Modul 147 verwendet werden, um im Internet zu surfen, einschließlich suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon, sowie Anhängen oder anderen Dateien, die mit Webseiten verbunden sind. Ausführungsformen von Benutzerschnittstellen und assoziierten Prozessen, die das Browser-Modul 147 verwenden, werden unten weiter beschrieben.
  • Man beachte, dass die oben identifizierten Module und Anwendungen (einschließlich dem Bildverwaltungsmodul 144 und dem Browser-Modul 147) einem Anweisungssatz zum Durchführen einer oder mehreren oben beschriebenen Funktionen entsprechen. Diese Module (d. h. Anweisungssätze) müssen nicht als getrennte Softwareprogramme, Prozeduren oder Module implementiert werden, und somit können verschiedene Untermengen dieser Module in verschiedenen Ausführungsformen kombiniert werden oder anderweitig neu angeordnet werden. In manchen Ausführungsformen kann der Speicher 102 eine Untermenge der Module und Da tenstrukturen speichern, die oben identifiziert wurden. Weiterhin kann der Speicher zusätzliche Module und Datenstrukturen speichern, die nicht oben beschrieben wurden.
  • In manchen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, wo eine Operation eines vordefinierten Funktionssatzes auf der Vorrichtung exklusiv durch einen Berührungsbildschirm 112 und/oder ein Berührungsfeld durchgeführt wird. Unter Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als die primäre Eingabe-/Steuervorrichtung zum Betrieb der Vorrichtung 100 kann die Anzahl an physischen Eingabe-/Steuervorrichtungen (wie etwa Drucktasten, Räder und Ähnliches) auf der Vorrichtung 100 verringert werden.
  • Der vordefinierte Satz an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld durchgeführt werden können, umfasst Navigation zwischen Benutzerschnittstellen. In manchen Ausführungsformen navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Start- oder Wurzelmenü, von irgendeiner Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt sein mag. In solchen Ausführungsformen kann das Berührungsfeld eine „Menütaste" genannt werden. In manchen anderen Ausführungsformen kann die Menütaste eine physische Drucktaste oder eine andere physische Eingabe-/Steuervorrichtung anstelle eines Berührungsfelds sein.
  • 2 stellt eine tragbare elektronische Vorrichtung 100 dar, die einen Berührungsbildschirm 112 hat, in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm kann eine oder mehrere Grafiken anzeigen. In dieser Ausführungsform sowie in anderen, die unten beschrieben werden, kann ein Benutzer eine oder mehrere Grafiken anwählen, indem er Kontakt mit der Grafik herstellt oder sie berührt, z. B. mit einem oder mehreren Fingern 102 (nicht maßstabsgetreu in der Figur gezeichnet) oder einem Stift (nicht in der Figur gezeigt). In manchen Ausführungsformen geschieht die Anwahl einer oder mehrerer Grafi ken, wenn der Benutzer den Kontakt mit der einen oder den mehreren Grafiken unterbricht. In manchen Ausführungsformen kann der Kontakt eine Geste umfassen, wie etwa ein oder mehrere Tippen, ein oder mehrere Streichen (z. B. von links nach rechts oder rechts nach links oder hin und her in beide Richtungen; nach oben oder nach unten, oder nach oben und nach unten) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, nach oben und/oder nach unten), der den Kontakt mit der Vorrichtung 100 hergestellt hat. In manchen Ausführungsformen kann ein unabsichtlicher Kontakt mit einer Grafik die Grafik nicht auswählen. Zum Beispiel kann eine Streichgeste, die über ein Anwendungsicon streicht, die entsprechende Anwendung nicht anwählen, wenn die Geste, die der Anwahl entspricht, ein Tippen ist. Mit anderen Worten interpretiert die tragbare elektronische Vorrichtung 100 die Bedeutung einer Geste und handelt entsprechend, nachdem sie berücksichtigt, welche Anwendung oder welches Modul im Moment verwendet wird.
  • Die Vorrichtung 100 kann auch eine oder mehrere physische Tasten, wie etwa eine „Start"- oder Menütaste umfassen. Wie vorher beschrieben, kann die Menütaste 204 verwendet werden, um zu irgendeiner Anwendung 136 in einem Satz von Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ ist in manchen Ausführungsformen die Menütaste als eine Softtaste in einer GUI im Berührungsbildschirm 112 implementiert.
  • In einer Ausführungsform umfasst die Vorrichtung 100 einen Berührungsbildschirm 112, eine Menütaste 204, eine Drucktaste 206 zum An- und Ausschalten der Vorrichtung und Verriegeln der Vorrichtung und Lautstärkeanpassungstaste(n) 208. Die Drucktaste 206 kann verwendet werden, um die Stromversorgung zur Vorrichtung an-/auszuschalten durch Herunterdrücken der Taste und Halten der Taste im heruntergedrückten Zustand während eines vordefinierten Zeitintervalls; um die Vorrichtung zu verriegeln, durch Herunterdrücken der Taste und Auslassen der Taste, bevor das vorbestimmte Zeitintervall abgelaufen ist; und/oder um die Vorrichtung zu entriegeln oder einen Entriegelungsprozess ein zuleiten. In einer alternativen Ausführungsform kann die Vorrichtung 100 auch verbale Eingabe zur Aktivierung oder Deaktivierung mancher Funktionen durch das Mikrofon 113 aufnehmen.
  • Die Aufmerksamkeit wird jetzt auf Ausführungsformen der Benutzerschnittstelle („UI") und assoziierte Prozesse gelenkt, die auf einer tragbaren elektronischen Vorrichtung 100 implementiert sein können.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entriegeln einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen 300 die folgenden Elemente, oder eine Untermenge oder Obermenge davon:
    • • Entriegelungsbild 302, das mit einer Fingergeste bewegt wird, um die Vorrichtung zu entriegeln;
    • • Pfeil 304, der einen visuellen Hinweis auf die Entriegelungsgeste liefert;
    • • Kanal 306, der zusätzliche Hinweise auf die Entriegelungsgeste liefert;
    • • Zeit 308;
    • • Tag 310;
    • • Datum 312; und
    • • Hintergrundbild 314.
  • In manchen Ausführungsformen detektiert die Vorrichtung Kontakte mit der berührungsempfindlichen Anzeige (z. B. eine Kontaktherstellung durch den Finger eines Benutzers auf oder nahe dem Entriegelungsbild 302), während die Vorrichtung in einem Benutzerschnittstellenverriegelungszustand ist. Die Vorrichtung bewegt das Entriegelungsbild 302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht in einen Benutzerschnittstellenentriegelungszustand über, wenn der detektierte Kontakt einer vordefinierten Geste entspricht, wie etwa Bewegen des Entriegelungsbildes über den Kanal 306. Umgekehrt behält die Vorrichtung den Benutzerschnittstellenverriegelungszustand bei, wenn der detektierte Kontakt nicht der vordefinierten Geste entspricht. Wie oben angemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entriegeln, in der US-Patentanmeldung 11/322,549 „Entriegeln einer Vorrichtung durch Durchführen von Gesten auf einem Entriegelungsbild", eingereicht am 23. Dezember 2005, beschrieben, die hiermit per Referenz mit eingebunden wird.
  • 4 stellt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren elektronischen Vorrichtung in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle 400 die folgenden Elemente, oder eine Untermenge oder Obermenge davon:
    • • Signalstärkeanzeiger 402 für drahtlose Kommunikation;
    • • Zeit 404;
    • • Batteriezustandsanzeiger 406;
    • • Ablage 408 mit Icons für häufig verwendete Anwendungen, wie etwa:
    • – Telefon 138;
    • – Email-Client 140, der einen Anzeiger 410 der Anzahl an ungelesenen Emails umfassen kann;
    • – Browser 147; und
    • – Musikspieler 146; und
    • • Icons für andere Anwendungen, wie etwa:
    • – IM 141;
    • – Bildverwaltung 144;
    • – Kamera 143;
    • – Videospieler 145;
    • – Wetter 149-1;
    • – Aktien 149-2;
    • – Blog 142;
    • – Kalender 148;
    • – Taschenrechner 149-3;
    • – Wecker 149-4;
    • – Wörterbuch 149-5; und
    • – benutzererzeugtes Widget 149-6.
  • In manchen Ausführungsformen zeigt UI 400 alle der verfügbaren Anwendungen 136 auf einem Bildschirm an, so dass man nicht durch eine Liste von Anwendungen zu scrollen braucht (z. B. über eine Bildlaufleiste). In manchen Ausführungsformen, da die Anzahl an Anwendungen zunimmt, können die Icons, die den Anwendungen entsprechen, in ihrer Größe abnehmen, so dass alle Anwendungen auf einem einzigen Bildschirm ohne Scrollen angezeigt werden können. Alle Anwendungen auf einem Bildschirm zu haben und eine Menütaste zu haben, versetzt in manchen Ausführungsformen einen Benutzer in die Lage, auf jede beliebige gewünschte Anwendung mit höchstens zwei Eingaben zuzugreifen, wie etwa Aktivieren der Menütaste 204 und dann Aktivieren einer gewünschten Anwendung (z. B. Aktivieren des Bildverwaltungsmoduls 144 durch ein Fingertippen 412 oder eine andere Fingergeste auf dem Icon, das der Anwendung entspricht). Aktivieren der gewünschten Anwendung führt zu einer anderen Benutzerschnittstelle, die der benutzer-gewählten Anwendung entspricht.
  • 5 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten von Fotoalben in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle 500 die folgenden Elemente, oder eine Untermenge oder Obermenge davon:
    • 402, 404 und 406, wie oben beschrieben;
    • • Grafik 504, z. B. Vorschaubild des ersten Bilds oder eines benutzer-ausgewählten Bildes in den entsprechenden Alben;
    • • Albumnamen 506;
    • • Auswahl-Icons 508, die, wenn sie aktiviert werden (z. B. durch eine Fingergeste auf dem Icon), Anzeige des entsprechenden Albums einleiten (z. B. UI 600, 6); und
    • • Einstellungen-Icon 510, das ein Einstellungsmenü hervorbringt, wenn es durch eine Benutzergeste aktiviert wird (z. B. eine Tippgeste).
  • 6 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten eines Albums in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle 1000 die folgenden Elemente, oder eine Untermenge oder Obermenge davon:
    • 402, 404 und 406, wie oben beschrieben;
    • • Fotoalben-Icon 602, das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zur Fotoalben-UI einleitet (z. B. UI 500);
    • • Vorschaubilder 606 von Bildern im entsprechenden Album;
    • • Abspiel-Icon 608, das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), eine Diaschau der Bilder in dem Album einleitet;
  • In manchen Ausführungsformen kann der Benutzer durch die Vorschaubilder 606 scrollen unter Verwendung vertikaler Nach-oben-/Nach-unten-Gesten 610 auf dem Berührungsbildschirm. Eine stationäre Geste auf einem bestimmten Vorschaubild (z. B. ein Fingertippen 612 auf Vorschaubild 606-11) leitet Übergang der Anwendung zu einem unterschiedlichen Modus ein, z. B. eine vergrößerte Anzeige des entsprechenden Bildes (z. B. UI 700, 7).
  • 7 stellt eine beispielhafte Benutzerschnittstelle zum Betrachten vergrößerter Bilder in einem Album in Übereinstimmung mit manchen Ausführungsformen dar. In manchen Ausführungsformen umfasst die Benutzerschnittstelle 700 die folgenden Elemente, oder eine Untermenge oder eine Obermenge davon:
    • 402, 404 und 406 wie oben beschrieben;
    • • Albumname-Icon 702, das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zur entsprechenden Alben-UI (z. B. UI 600) einleitet;
    • • Bild 706;
    • • zusätzliche-Optionen-Icon 708, das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), Übergang zu einer UI mit zusätzlichen Optionen für die Verwendung des Bildes 706 einleitet;
    • • Vorhergehendes-Bild-Icon 710, das, wenn es aktiviert wird (z. B. durch eine Fingergeste 722 auf dem Icon), Anzeige des vorhergehenden Bildes im Album (z. B. 606-10) einleitet;
    • • Abspielen-Icon 712, das, wenn es aktiviert wird (z. B. durch eine Fingergeste auf dem Icon), eine Diaschau der Bilder in dem Album einleitet; und
    • • Nächstes-Bild-Icon 714, das, wenn es aktiviert wird (z. B. durch eine Fingergeste 724 auf dem Icon), Anzeige des nächsten Bildes in dem Album (z. B. 606-12) einleitet.
  • In manchen Ausführungsformen ist Auswählen des Icons für vorhergehendes oder nächstes Bild nicht die einzige Art und Weise des Anzeigens des vorhergehenden oder nächsten Bildes im Album. Zum Beispiel kann der Benutzer Betrachten des vorhergehenden Bildes durch Durchführen einer Tippgeste 718 auf der linken Seite des Bildes einleiten, oder Durchführen einer Streichgeste 716 von links nach rechts auf dem Bild. Das Bild 706 bewegt sich aus dem Bildschirm nach rechts, während sich das vorhergehende Bild auf den Bildschirm von links bewegt. Ähnlich kann der Benutzer Betrachten des nächsten Bildes durch Durchführen einer Tippgeste 720 auf der rechten Seite des Bildes einleiten, oder Durchführen einer Streichgeste 716 von rechts nach links auf dem Bild. Das Bild 706 bewegt sich aus dem Bildschirm nach links, während sich das nächste Bild auf den Bildschirm von rechts bewegt.
  • Mit mehreren Möglichkeiten, die gleiche Aufgabe durchzuführen, ermöglicht die tragbare elektronische Vorrichtung es einem Benutzer, auszuwählen, was auch immer der Benutzer bevorzugt, wodurch die Fotoverwaltung einfacher und intuitiver gemacht wird.
  • Die 8A bis 8D stellen beispielhafte Benutzerschnittstellen für einen Browser in Übereinstimmung mit manchen Ausführungsformen dar.
  • In manchen Ausführungsformen umfasst die Benutzerschnittstelle 800A die folgenden Elemente, oder eine Untermenge oder Obermenge davon:
    • 402, 404 und 406, wie oben beschrieben;
    • • Vorherige-Seite-Icon 802, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige der vorhergehenden Webseite einleitet;
    • • Webseitenname 804;
    • • Nächste-Seite-Icon 806, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige der nächsten Webseite einleitet;
    • • URL-(Uniform Resource Locator)-Eingabefeld 808 zum Eingeben von URLs von Webseiten;
    • • Neu-Laden-Icon 810, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), ein Aktualisieren der Webseite einleitet;
    • • Webseite 812 oder ein anderes strukturiertes Dokument, das einen oder mehrere Blöcke 814 mit Textinhalt oder anderen Grafiken (z. B. Bildern) umfasst;
    • • Einstellungen-Icon 816, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige eines Einstellungenmenüs für den Browser einleitet;
    • • Lesezeichen-Icon 818, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer Lesezeichenliste oder eines Lesezeichenmenüs für den Browser einleitet;
    • • Lesezeichen-Hinufügen-Icon 820, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer UI zum Hinzufügen von Lesezeichen einleitet; und
    • • Neues-Fenster-Icon 822, das, wenn es aktiviert wird (z. B. durch ein Fingertippen auf das Icon), Anzeige einer UI zum Hinzufügen neuer Fenster zum Browser (z. B. UI 800D, 8D) einleitet.
  • In manchen Ausführungsformen leitet die tragbare Vorrichtung in Antwort auf eine vordefinierte Geste durch den Benutzer auf einem Block 814 (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens) einen vordefinierten Modus der Browseranwendung ein, der z. B. bewirkt, dass der Block vergrößert und in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) wird. Zum Beispiel kann in Antwort auf eine Geste eines einzelnen Tippens 823 auf den Block 814-5 der Block 814-5 vergrößert und in der Anzeige zentriert werden, wie in UI 800B, 8B, gezeigt.
  • In manchen Ausführungsformen wird die Breite des benutzer-ausgewählten Blocks skaliert, um die Berührungsbildschirmanzeige zu füllen. In manchen Ausführungsformen wird die Breite des Blocks so skaliert, dass die Berührungsbildschirmanzeige mit einer vorbestimmten Menge an Auspolsterung entlang der Seiten der Anzeige gefüllt wird. In manchen Ausführungsformen wird eine Zoom-Animation des Blocks während Vergrößerung des Blocks angezeigt. Ähnlich kann in Antwort auf eine Geste eines einzelnen Tippens 825 auf Block 814-2 der Block 814-2 mit einer Zoom-Animation vergrößert werden und zweidimensional zum Mittelpunkt der Anzeige gescrollt werden (nicht dargestellt).
  • In manchen Ausführungsformen analysiert die Vorrichtung den Darstellungsbaum der Webseite 812, um die Blöcke 814 in der Webseite zu bestimmen. In manchen Ausführungsformen entspricht ein Block 814 einem Darstellungspunkt, d. h.: einem ersetzten Inline, einem Block, einem Inline-Block oder einer Inline-Tabelle.
  • In manchen Ausführungsformen wird in Antwort auf dieselbe vordefiniert Geste durch den Benutzer auf einem Block 814 (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens), der bereits vergrößert und zentriert ist, die Vergrößerung und/oder das Zentrieren im Wesentlichen vollständig umgekehrt. Wie in der UI 800B (8B) gezeigt, kann in Antwort auf eine Geste eines einzelnen Tippens 829 auf den Block 814-5 das Webseitenbild herauszoomen und nach UI 800A, 8A, zurückkehren.
  • In manchen Ausführungsformen wird in Antwort auf eine vordefiniere Geste (z. B. eine Geste eines einzelnen Tippens oder eine Geste eines doppelten Tippens) durch den Benutzer auf einen Block 814, der bereits vergrößert, aber nicht zentriert ist, der Block auf der Webseitenanzeige zentriert (oder im Wesentlichen zentriert). Zum Beispiel kann in Antwort auf eine Geste eines einzelnen Tippens 827 auf den Block 814-4 der Block 814-4 in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) werden. Ähnlich kann in Antwort auf eine Geste eines einzelnen Tippens 835 auf den Block 814-6 der Block 814-6 in der Webseitenanzeige zentriert (oder im Wesentlichen zentriert) werden. Somit kann für eine Webseitenanzeige, die bereits vergrößert ist, die Vorrichtung in Antwort auf eine vordefinierte Geste auf eine intuitive Weise eine Serie von Blöcken anzeigen, die der Benutzer betrachten möchte. Diese gleiche Geste kann unterschiedliche Aktionen in unterschiedlichen Kontexten einleiten (z. B. (1) Zoomen und/oder Vergrößern eines Blocks in Kombination mit Scrollen, wenn der Block in verringerter Größe angezeigt wird, und (2) Umkehren der Vergrößerung und/oder Zentrierung, wenn der Block bereits zentriert und vergrößert ist).
  • In manchen Ausführungsformen kann in Antwort auf eine im Wesentlichen vertikale Nach-oben-(oder Nach-unten)-Streichgeste 828 durch den Benutzer die Webseite (oder allgemeiner ein elektronisches Dokument) eindimensional nach oben (oder nach unten) in der vertikalen Richtung scrollen.
  • In manchen Ausführungsformen kann in Antwort auf eine Mehrfachberührungsrotationsgeste 841 und 843 durch den Benutzer die Webseite von Portraitansicht (UI 800B, 8B) nach Landschaftsansicht (UI 800C, 8C) rotiert werden, selbst wenn die Rotationsmenge in der Mehrfachberührungsrotationsgeste 841 und 843 im Wesentlichen von 90° verschieden ist. Ähnlich kann in Antwort auf eine Mehrfachberührungsrotationsgeste 845 und 847 durch den Benutzer die Webseite zurück von der Landschaftsansicht zur Portraitansicht rotiert werden, selbst wenn die Rotationsmenge in der Mehrfachberührungsrotationsgeste 845 und 847 im Wesentlichen verschieden von 90° ist.
  • In manchen Ausführungsformen wird Mehrfachberührungsrotation 841 und 843 durch einen Benutzer durchgeführt, der zwei im Wesentlichen simultane Fingerkontaktrotationen auf oder nahe dem Berührungsbildschirm 112 innerhalb des Anzeigegebiets durchführt, das von der Webseite belegt wird (z. B. auf Block 814-5).
  • Somit geschehen in Antwort auf unpräzise Gesten durch den Benutzer präzise Bewegungen der Grafik. Die Vorrichtung verhält sich in der Art und Weise, die durch den Benutzer gewünscht wird, trotz inakkurater Eingabe durch den Benutzer. Man beachte, dass die Gesten, die oben für UI 800B beschrieben wurden, das eine Portraitansicht hat, auch auf UIs mit einer Landschaftsansicht (z. B. UI 800C) anwendbar sind, so dass der Benutzer wählen kann, welche Ansicht der Benutzer für Websurfen bevorzugt.
  • 8D stellt eine UI 800D zum Hinzufügen neuer Fenster zu einer Anwendung dar, wie etwa den Browser 147. Zum Beispiel zeigt in Antwort auf ein Benutzerfingertippen 848 auf dem Neues-Fenster-Icon 822 UI 800D eine Anwendung (z. B. den Browser 147) in einem vordefinierten Modus an, die ein angezeigtes Fenster (z. B. Webseite 812-2) und mindestens ein teilweise verborgenes Fenster (z. B. Webseiten 812-1 und 812-3 und möglicherweise andere Webseiten, die vollständig außerhalb des Bildschirms verborgen sind) umfasst. UI 800D zeigt auch ein Icon zum Hinzufügen von Fenstern zu einer Anwendung an (z. B. Neues-Fenster- oder Neue-Seite-Icon 836). Auf die Detektion einer Aktivierung des Icons 836 zum Hinzufügen von Fenstern hin fügt der Browser der Anwendung ein Fenster hinzu (z. B. ein neues Fenster für eine neue Webseite 812).
  • Nach der Detektion einer Geste auf der Berührungsbildschirmanzeige wird ein angezeigtes Fenster in der Anwendung aus der Anzeige geschoben und ein verborgenes Fenster wird auf die Anzeige geschoben. Zum Beispiel bewegt sich in Antwort auf Detektieren einer Tippgeste 849 auf der linken Seite des Fensters das Fenster mit der Webseite 812-2 teilweise vom Bildschirm nach rechts, um die Position einzunehmen, die durch das Fenster mit der Webseite 812-3 verlassen wurde, welches sich vollständig vom Bildschirm herunter bewegen kann. In der Zwischenzeit bewegt sich das teilweise verborgene Fenster mit der Webseite 812-1 zum Mittelpunkt der Anzeige, und ein anderes vollständig verborgenes Fenster mit einer Webseite (nicht dargestellt) kann sich teilweise auf die Anzeige bewegen. Alternativ kann eine Links-nach-rechts-Streichgeste 851 auf dem Berührungsbildschirm die gleiche Wirkung erzielen.
  • Umgekehrt bewegt sich in Antwort auf die Detektion einer Tippgeste 853 auf der rechten Seite des Bildschirms das Fenster mit der Webseite 812-2 teilweise nach links und schiebt das Fenster mit der Webseite 812-1 von der Anzeige herunter. In der Zwischenzeit bewegt sich das teilweise verborgene Fenster mit der Webseite 812-3 zum Mittelpunkt der Anzeige, und ein anderes vollständig verborgenes Fenster mit einer Webseite (nicht dargestellt) kann sich teilweise auf die Anzeige bewegen. Alternativ kann eine Rechts-nach-links-Streichgeste 851 die gleiche Wirkung erzielen.
  • In manchen Ausführungsformen können die Tippgesten 849 oder 853 auf den (oder innerhalb der) entsprechenden Fenster 812-1 oder 812-3 durchgeführt werden oder nicht. Die tragbare Vorrichtung arbeitet auf dieselbe Weise wie oben erwähnt, solange die Tippgesten innerhalb eines vordefinierten Bereichs von den entsprechenden Fenstern entfernt sind.
  • In manchen Ausführungsformen wird in Antwort auf ein Tippen oder eine andere vordefinierte Geste auf ein Löschen-Icon 834 das entsprechende Fenster 812 gelöscht. In manchen Ausführungsformen bewegt sich, nachdem das benutzer-ausgewählte Fenster vom Bildschirm gelöscht wurde, ein benachbartes Fenster von links oder rechts herein, um die Stelle einzunehmen, die vorher durch das gelöschte Fenster eingenommen wurde. In manchen Ausführungsformen wird in Antwort auf ein Tippen oder eine andere vordefinierte Geste auf ein Fertig-Icon 838 das Fenster in der Mitte der Anzeige (z. B. 812-2) vergrößert, um den Bildschirm auszufüllen. Die Operationen, die oben in Verbindung mit UI 800D beschrieben wurden, die eine Landschaftsansicht hat, sind auch auf UIs mit einer Landschaftsansicht (z. B. UI 800A) anwendbar, so dass der Benutzer wählen kann, welche Ansicht auch immer der Benutzer zum Websurfen bevorzugt.
  • Ein Vergleich zwischen der Bildverwaltungsanwendung (z. B. UI 700, 7) und der Browseranwendung (z. B. UI 800D, 8D) zeigt an, dass beide Anwendungen das Merkmal haben, dass sie den gleichen Satz an Operationen in Antwort auf verschiedene Arten von Benutzergesten durchführen. 9 ist ein verallgemeinertes Flussdiagramm, das einen Prozess zum Durchführen einer vordefinierten Operation auf das Detektieren mehrerer Arten von Benutzergesten auf dem Berührungsbildschirm der tragbaren elektronischen Vorrichtung hin in Übereinstimmung mit manchen Ausführungsformen darstellt.
  • Auf eine Benutzerauswahl eines Icons in einer Anwendungs-UI hin zeigt die Vorrichtung einen Satz an Objekten, die mit der Anwendung assoziiert sind, auf ihrem Berührungsbildschirm an (902). Abhängig von der Anwendung kann der Satz an Objekten ein Satz von Vorschaubildern (UI 600, 6), Browsing-Fenstern, Webseitenblöcken oder Ähnlichem sein.
  • Auf die Detektion einer Benutzerauswahl eines der Objekte hin (904) zeigt die Vorrichtung ein bestimmtes, benutzer-ausgewähltes Objekt (z. B. ein vergrößertes Bild) auf dem Berührungsbildschirm an (906) und startet dann Überwachung von Benutzergesten auf dem Berührungsbildschirm (908).
  • Wenn die Benutzergeste ein horizontales/vertikales Fingerstreichen auf dem Berührungsbildschirm ist (910), ein Fingertippen auf einem Rand des Berührungsbildschirms (918) oder ein Fingertippen auf das Icon für vorhergehendes/nächstes Objekt (914), identifiziert die Vorrichtung in dem Satz das vorhergehende oder nächste Objekt, das durch den Benutzer ausgewählt wurde (916) und zeigt das vorhergehende oder nächste Objekt auf dem Berührungsbildschirm in Ersetzung des aktuellen Objekts auf der Anzeige an (918, 920).
  • Die vorhergehende Beschreibung wurde zum Zweck der Erklärung mit Bezug auf spezifische Ausführungsformen beschrieben. Die illustrativen Diskussionen oben sollen jedoch nicht erschöpfend sein oder die Erfindung auf die präzisen offenbarten Formen beschränken. Zahlreiche Modifikationen und Variationen sind möglich in Anbetracht der obigen Lehren. Die Ausführungsformen wurden ausgewählt und beschrieben, um die Prinzipen der Erfindung und ihre praktischen Anwendungen am besten zu erklären, und dadurch andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsformen mit verschiedenen Modifikationen, wie sie für die spezielle betrachtete Verwendung geeignet sind, am besten zu verwenden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6323846 [0041]
    • - US 6570557 [0041]
    • - US 6677932 [0041]
    • - US 2002/0015024 A1 [0041]

Claims (21)

  1. Tragbare Multifunktionsvorrichtung, umfassend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer Anwendung; und Anweisungen zum Durchführen einer vordefinierten Operation in Antwort auf jede Geste eines Satzes von mehreren unterschiedlichen Gesten auf der Berührungsbildschirmanzeige, wenn die Anwendung in einem vordefinierten Modus ist.
  2. Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei die mehreren Gesten auf der Berührungsbildschirmanzeige eine Tippgeste und eine Streichgeste umfassen.
  3. Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei die Anwendung eine Bildverwaltungsanwendung oder eine Browser-Anwendung ist.
  4. Tragbare Multifunktionsvorrichtung gemäß Anspruch 1, wobei der vordefinierte Modus Anzeigen eines Objekts aus einem Satz von Objekten ist.
  5. Tragbare Multifunktionsvorrichtung gemäß Anspruch 4, wobei das Objekt ein digitales Bild aus einem Satz von digitalen Bildern ist.
  6. Tragbare Multifunktionsvorrichtung gemäß Anspruch 5, wobei mindestens eines der digitalen Bilder einem Videostrom entspricht.
  7. Tragbare Multifunktionsvorrichtung gemäß Anspruch 5, wobei mindestens eines der digitalen Bilder einem Musikalbum entspricht.
  8. Tragbare Multifunktionsvorrichtung gemäß Anspruch 4, wobei das Objekt eine Webseite aus einem Satz von Webseiten ist.
  9. Tragbare Multifunktionsvorrichtung, umfassend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren, operativ mit der Berührungsbildschirmanzeige verbunden; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden, und wobei das eine oder die mehreren Programme umfassen: Anweisungen zum Anzeigen einer ersten Anwendung; wenn die erste Anwendung in einem ersten Modus ist, Anweisungen zum Durchführen einer ersten Operation auf das Detektieren einer ersten Geste auf der Berührungsbildschirmanzeige hin; und Anweisungen zum Durchführen der ersten Operation auf das Detektieren einer zweiten Geste auf der Berührungsbildschirmanzeige hin, wobei die zweite Geste von der ersten Geste verschieden ist.
  10. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei der erste Modus Anzeigen eines ersten Objekts aus einem Satz von Objekten ist.
  11. Tragbare Multifunktionsvorrichtung gemäß Anspruch 10, wobei das erste Objekt ein digitales Bild aus einem Satz von digitalen Bildern ist.
  12. Tragbare Multifunktionsvorrichtung gemäß Anspruch 10, wobei das erste Objekt eine Webseite aus einem Satz von Webseiten ist.
  13. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Geste eine Tippgeste und die zweite Geste eine Streichgeste ist.
  14. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Operation Anzeigen eines nächsten Objekts aus einem Satz von Objekten ist.
  15. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Operation Anzeigen eines vorhergehenden Objekts aus einem Satz von Objekten ist.
  16. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, umfassend wenn die erste Anwendung im ersten Modus ist, Anweisungen zum Durchführen der ersten Operation auf das Detektieren einer dritten Geste auf der Berührungsbildschirmanzeige hin, wobei die dritte Geste von der ersten Geste und der zweiten Geste verschieden ist.
  17. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Anwendung eine Bildverwaltungsanwendung ist.
  18. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, wobei die erste Anwendung eine Browser-Anwendung ist.
  19. Tragbare Multifunktionsvorrichtung gemäß Anspruch 9, umfassend Anweisungen zum Anzeigen einer zweiten Anwendung; und wenn die zweite Anwendung in einem zweiten Modus ist, Anweisungen zum Durchführen der ersten Operation auf das Detektieren der ersten Geste auf der Berührungsbildschirmanzeige hin; und Anweisungen zum Durchführen der ersten Operation auf das Detektieren der zweiten Geste auf der Berührungsbildschirmanzeige hin, wobei die zweite Geste von der ersten Geste verschieden ist.
  20. Tragbare Multifunktionsvorrichtung gemäß Anspruch 19, wobei der zweite Modus Anzeigen eines ersten Objekts aus einem Satz von Objekten ist.
  21. Tragbare Multifunktionsvorrichtung gemäß Anspruch 19, wobei die erste Anwendung eine Bildverwaltungsanwendung und die zweite Anwendung eine Browser-Anwendung ist.
DE202007018420U 2006-09-06 2007-09-06 Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt Expired - Lifetime DE202007018420U1 (de)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US82476906P 2006-09-06 2006-09-06
US60/824,769 2006-09-06
US87925307P 2007-01-07 2007-01-07
US88381707P 2007-01-07 2007-01-07
US60/879,253 2007-01-07
US60/883,817 2007-01-07
US87946907P 2007-01-08 2007-01-08
US60/879,469 2007-01-08
US93799307P 2007-06-29 2007-06-29
US60/937,993 2007-06-29
US11/850,638 2007-09-05
US11/850,638 US8842074B2 (en) 2006-09-06 2007-09-05 Portable electronic device performing similar operations for different gestures
PCT/US2007/077773 WO2008030972A1 (en) 2006-09-06 2007-09-06 Portable electronic device performing similar operations for different gestures

Publications (1)

Publication Number Publication Date
DE202007018420U1 true DE202007018420U1 (de) 2008-06-19

Family

ID=38765739

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202007018420U Expired - Lifetime DE202007018420U1 (de) 2006-09-06 2007-09-06 Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt

Country Status (9)

Country Link
US (7) US8842074B2 (de)
EP (1) EP2069898B1 (de)
JP (3) JP5409364B2 (de)
KR (2) KR20110115180A (de)
CN (1) CN102681776B (de)
AU (1) AU2007289019B2 (de)
DE (1) DE202007018420U1 (de)
HK (1) HK1134887A2 (de)
WO (1) WO2008030972A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009019563A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
DE102009019560A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
DE102011010229A1 (de) * 2011-02-03 2012-08-09 Audi Ag Vorrichtung zur Bedienung mehrerer unterschiedlicher Funktionen eines Kraftfahrzeugs

Families Citing this family (141)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
WO2008138030A1 (en) * 2007-05-11 2008-11-20 Rpo Pty Limited User-defined enablement protocol
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8504946B2 (en) * 2008-06-27 2013-08-06 Apple Inc. Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document
JP4636131B2 (ja) 2008-07-04 2011-02-23 ソニー株式会社 情報提供装置、情報提供方法、およびプログラム
US8286171B2 (en) 2008-07-21 2012-10-09 Workshare Technology, Inc. Methods and systems to fingerprint textual information using word runs
KR101495172B1 (ko) 2008-07-29 2015-02-24 엘지전자 주식회사 이동단말기 및 그의 이미지 제어방법
US8847739B2 (en) * 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
JP2010086230A (ja) * 2008-09-30 2010-04-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20100107100A1 (en) 2008-10-23 2010-04-29 Schneekloth Jason S Mobile Device Style Abstraction
US8411046B2 (en) 2008-10-23 2013-04-02 Microsoft Corporation Column organization of content
US8385952B2 (en) * 2008-10-23 2013-02-26 Microsoft Corporation Mobile communications device user interface
US8954894B2 (en) * 2008-11-15 2015-02-10 Adobe Systems Incorporated Gesture-initiated symbol entry
US20100146459A1 (en) * 2008-12-08 2010-06-10 Mikko Repka Apparatus and Method for Influencing Application Window Functionality Based on Characteristics of Touch Initiated User Interface Manipulations
US8289162B2 (en) * 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
KR101545880B1 (ko) * 2008-12-22 2015-08-21 삼성전자주식회사 터치 스크린을 구비한 단말기 및 그 단말기의 데이터 표시 방법
KR101523386B1 (ko) * 2009-01-07 2015-05-27 엘지전자 주식회사 사용자 동작에 따른 이동 통신 단말기의 제어방법 및 이를 적용한 이동 통신 단말기
JP2010191676A (ja) * 2009-02-18 2010-09-02 Nikon Corp 撮影装置
WO2010094105A1 (en) * 2009-02-23 2010-08-26 Research In Motion Limited Touch-sensitive display and method of controlling same
KR101368526B1 (ko) * 2009-03-26 2014-02-27 쿄세라 코포레이션 전자기기, 정보 처리 방법, 및 정보 표시 방법
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
US9886936B2 (en) * 2009-05-14 2018-02-06 Amazon Technologies, Inc. Presenting panels and sub-panels of a document
US8347232B1 (en) * 2009-07-10 2013-01-01 Lexcycle, Inc Interactive user interface
WO2011037558A1 (en) 2009-09-22 2011-03-31 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
FR2953955B1 (fr) * 2009-12-14 2013-03-15 Mu 13 Comm Sante Installation d'appel et procede de gestion d'appel a l'aide d'une telle installation
US20110163977A1 (en) * 2010-01-06 2011-07-07 Ulrich Barnhoefer Mode Dependent Configuration of Portable Electronic Device
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
CN102770835B (zh) 2010-01-20 2016-01-06 诺基亚公司 用于组织图形项的方法和设备
RU2556079C2 (ru) * 2010-02-04 2015-07-10 Нокиа Корпорейшн Ввод данных пользователем
US20120026100A1 (en) * 2010-07-30 2012-02-02 Migos Charles J Device, Method, and Graphical User Interface for Aligning and Distributing Objects
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
WO2012044713A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Drag/flick gestures in user interface
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
US9384216B2 (en) * 2010-11-16 2016-07-05 Microsoft Technology Licensing, Llc Browsing related image search result sets
US10025759B2 (en) 2010-11-29 2018-07-17 Workshare Technology, Inc. Methods and systems for monitoring documents exchanged over email applications
US10783326B2 (en) 2013-03-14 2020-09-22 Workshare, Ltd. System for tracking changes in a collaborative document editing environment
KR101762612B1 (ko) 2010-12-07 2017-07-31 삼성전자 주식회사 목록 표시 방법 및 장치
KR101788049B1 (ko) * 2010-12-15 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
KR20120071670A (ko) * 2010-12-23 2012-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5418508B2 (ja) 2011-01-13 2014-02-19 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
JP5254399B2 (ja) * 2011-05-13 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 表示装置、ユーザインタフェース方法及びプログラム
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US10715380B2 (en) 2011-05-23 2020-07-14 Apple Inc. Setting a reminder that is triggered by a target user device
KR101810884B1 (ko) * 2011-06-07 2017-12-20 삼성전자주식회사 디바이스에서 제스처를 이용한 웹브라우저 인터페이스 제공 장치 및 방법
US9613340B2 (en) 2011-06-14 2017-04-04 Workshare Ltd. Method and system for shared document approval
US20120317479A1 (en) * 2011-06-08 2012-12-13 Workshare Ltd. Method and system for shared document editing on a mobile device
US10963584B2 (en) 2011-06-08 2021-03-30 Workshare Ltd. Method and system for collaborative editing of a remotely stored document
US8566100B2 (en) * 2011-06-21 2013-10-22 Verna Ip Holdings, Llc Automated method and system for obtaining user-selected real-time information on a mobile communication device
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
CN103092833A (zh) * 2011-10-27 2013-05-08 腾讯科技(深圳)有限公司 一种在手机浏览器中查看图片的方法、装置及移动设备
US10108737B2 (en) * 2012-01-25 2018-10-23 Microsoft Technology Licensing, Llc Presenting data driven forms
US9477642B2 (en) 2012-02-05 2016-10-25 Apple Inc. Gesture-based navigation among content items
US8504842B1 (en) * 2012-03-23 2013-08-06 Google Inc. Alternative unlocking patterns
US9106762B2 (en) * 2012-04-04 2015-08-11 Google Inc. Associating content with a graphical interface window using a fling gesture
DE112013002412T5 (de) 2012-05-09 2015-02-19 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
AU2013259642A1 (en) 2012-05-09 2014-12-04 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
AU2013259630B2 (en) 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to gesture
DE112013002409T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
EP2847660B1 (de) 2012-05-09 2018-11-14 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur auswahl von benutzerschnittstellenobjekten
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
TWI507969B (zh) * 2012-09-07 2015-11-11 Benq Corp 遙控裝置、顯示系統與方法
KR102069014B1 (ko) * 2012-09-25 2020-02-12 삼성전자 주식회사 휴대단말기의 분리화면 제어장치 및 방법
US9001216B2 (en) * 2012-10-12 2015-04-07 Sony Corporation Method and apparatus for video streaming
EP4213001A1 (de) * 2012-12-06 2023-07-19 Samsung Electronics Co., Ltd. Anzeigevorrichtung und verfahren zur steuerung davon
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
EP2939095B1 (de) 2012-12-29 2018-10-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur bewegung eines cursors gemäss einer veränderung des erscheinungsbildes eines steuerungssymbols mit simulierten dreidimensionalen eigenschaften
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US8989773B2 (en) 2013-01-29 2015-03-24 Apple Inc. Sharing location information among devices
US10394434B2 (en) 2013-02-22 2019-08-27 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US10261612B2 (en) * 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
US11209975B2 (en) 2013-03-03 2021-12-28 Microsoft Technology Licensing, Llc Enhanced canvas environments
EP3726359A1 (de) * 2013-03-15 2020-10-21 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur verwaltung gleichzeitig geöffneter softwareanwendungen
JP6014558B2 (ja) * 2013-07-30 2016-10-25 京セラドキュメントソリューションズ株式会社 表示装置
US9798443B1 (en) * 2013-09-10 2017-10-24 Amazon Technologies, Inc. Approaches for seamlessly launching applications
USD739867S1 (en) * 2013-09-20 2015-09-29 Viggle Inc. Display screen or portion thereof with animated graphical user interface
US10073603B2 (en) * 2014-03-07 2018-09-11 Nokia Technologies Oy Method and apparatus for providing notification of a communication event via a chronologically-ordered task history
US20150350141A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
USD768669S1 (en) * 2014-08-01 2016-10-11 Alexander Mackenzie & Pranger Display screen or portion thereof with graphical user interface
CN106605201B (zh) 2014-08-06 2021-11-23 苹果公司 用于电池管理的减小尺寸的用户界面
US9348457B2 (en) * 2014-08-13 2016-05-24 International Business Machines Corporation User interface tap selection on touchscreen device
USD789419S1 (en) 2014-09-01 2017-06-13 Apple Inc. Display screen or portion thereof with graphical user interface
EP4209872A1 (de) 2014-09-02 2023-07-12 Apple Inc. Benutzerschnittstelle für ein telefon
KR102016160B1 (ko) 2014-09-02 2019-08-29 애플 인크. 경고를 관리하기 위한 축소된 크기의 인터페이스
USD772919S1 (en) 2014-10-23 2016-11-29 Visa International Service Association Display screen or portion thereof with animated graphical user interface
US10671277B2 (en) 2014-12-17 2020-06-02 Datalogic Usa, Inc. Floating soft trigger for touch displays on an electronic device with a scanning module
US11567626B2 (en) 2014-12-17 2023-01-31 Datalogic Usa, Inc. Gesture configurable floating soft trigger for touch displays on data-capture electronic devices
JP6035318B2 (ja) * 2014-12-22 2016-11-30 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10401966B2 (en) * 2015-05-15 2019-09-03 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
US9442575B1 (en) 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
JP6617641B2 (ja) * 2015-09-16 2019-12-11 富士ゼロックス株式会社 ウェアラブル装置で実行される会議表示方法、ウェアラブルシステム及びプログラム
US11029836B2 (en) * 2016-03-25 2021-06-08 Microsoft Technology Licensing, Llc Cross-platform interactivity architecture
JP6190925B2 (ja) * 2016-07-22 2017-08-30 京セラドキュメントソリューションズ株式会社 表示装置
US10831332B2 (en) * 2017-02-23 2020-11-10 The Florida International University Board Of Trustees User interface element for building interior previewing and navigation
CN109074171B (zh) 2017-05-16 2021-03-30 华为技术有限公司 输入方法及电子设备
CN107562347B (zh) * 2017-09-07 2021-04-13 北京小米移动软件有限公司 显示对象的方法和装置
US11797150B2 (en) * 2018-05-07 2023-10-24 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
USD904451S1 (en) 2018-09-10 2020-12-08 Apple Inc. Electronic device with animated graphical user interface
DK180318B1 (en) 2019-04-15 2020-11-09 Apple Inc Systems, methods, and user interfaces for interacting with multiple application windows
US11016643B2 (en) 2019-04-15 2021-05-25 Apple Inc. Movement of user interface object with user-specified content
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions

Family Cites Families (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5119079A (en) 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US5347295A (en) * 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5610653A (en) 1992-02-07 1997-03-11 Abecassis; Max Method and system for automatically tracking a zoomed video image
JPH0695794A (ja) 1992-09-16 1994-04-08 Mutoh Ind Ltd データ入力装置
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US6262732B1 (en) 1993-10-25 2001-07-17 Scansoft, Inc. Method and apparatus for managing and navigating within stacks of document pages
JP2602001B2 (ja) 1993-11-01 1997-04-23 インターナショナル・ビジネス・マシーンズ・コーポレイション 縮小可能キーボード付パーソナル通信機
JPH07225829A (ja) 1994-02-15 1995-08-22 Hitachi Ltd データ表示方法及び装置
JPH0844253A (ja) 1994-07-27 1996-02-16 Canon Inc 画像形成装置
CA2154951C (en) 1994-09-12 2004-05-25 John E. Warnock Method and apparatus for viewing electronic documents
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5760773A (en) 1995-01-06 1998-06-02 Microsoft Corporation Methods and apparatus for interacting with data objects using action handles
GB2301217B (en) 1995-05-26 1999-12-15 Nokia Mobile Phones Ltd Display driver
US6496182B1 (en) 1995-06-07 2002-12-17 Microsoft Corporation Method and system for providing touch-sensitive screens for the visually impaired
US6199082B1 (en) 1995-07-17 2001-03-06 Microsoft Corporation Method for delivering separate design and content in a multimedia publishing system
US6486895B1 (en) 1995-09-08 2002-11-26 Xerox Corporation Display system for displaying lists of linked documents
US5761485A (en) * 1995-12-01 1998-06-02 Munyan; Daniel E. Personal electronic book system
US5828370A (en) 1996-07-01 1998-10-27 Thompson Consumer Electronics Inc. Video delivery system and method for displaying indexing slider bar on the subscriber video screen
JP3171145B2 (ja) 1996-07-31 2001-05-28 アイシン・エィ・ダブリュ株式会社 タッチパネルを併設した情報表示装置及び記憶媒体
KR100260760B1 (ko) 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US5870083A (en) 1996-10-04 1999-02-09 International Business Machines Corporation Breakaway touchscreen pointing device
KR19980032331U (ko) 1996-12-02 1998-09-05 사공영활 카드를 개봉하면 내용물이 돌출되는 카드
US6683628B1 (en) 1997-01-10 2004-01-27 Tokyo University Of Agriculture And Technology Human interactive type display system
JPH10198517A (ja) 1997-01-10 1998-07-31 Tokyo Noukou Univ 表示装置の表示内容制御方法
US5739821A (en) 1997-01-30 1998-04-14 Primax Electronics Ltd. Method for pointing a window frame or an icon of a window interface
JP2957507B2 (ja) 1997-02-24 1999-10-04 インターナショナル・ビジネス・マシーンズ・コーポレイション 小型情報処理機器
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US6069606A (en) * 1997-05-15 2000-05-30 Sony Corporation Display of multiple images based on a temporal relationship among them with various operations available to a user as a function of the image size
US6326970B1 (en) 1997-05-16 2001-12-04 Liberate Technologies TV centric layout
JP4223680B2 (ja) 1997-08-28 2009-02-12 トムソン コンシユーマ エレクトロニクス インコーポレイテツド 異なる表示セクションを有する表示におけるナビゲーションシステム及び方法
US6034688A (en) 1997-09-15 2000-03-07 Sony Corporation Scrolling navigational display system
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US6025842A (en) 1997-11-04 2000-02-15 International Business Machines Corporation System and method for window queues and white space activation for toggling windows
JPH11143604A (ja) 1997-11-05 1999-05-28 Nec Corp 携帯端末装置
US6613100B2 (en) 1997-11-26 2003-09-02 Intel Corporation Method and apparatus for displaying miniaturized graphical representations of documents for alternative viewing selection
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11242539A (ja) * 1998-02-25 1999-09-07 Sharp Corp 表示装置
US6133916A (en) 1998-04-08 2000-10-17 International Business Machines Corporation Graphical user interface providing access to files downloaded over a network
US6211856B1 (en) 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
JP2000056889A (ja) 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd 携帯端末装置及びウインドウ制御方法
US20010015719A1 (en) 1998-08-04 2001-08-23 U.S. Philips Corporation Remote control has animated gui
US6177936B1 (en) 1998-08-20 2001-01-23 International Business Machines Corporation Browser hierarchical contextual information for web pages
JP2000163444A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP2000181436A (ja) 1998-12-14 2000-06-30 Sharp Corp 文書表示装置
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
JP2000242390A (ja) * 1999-02-18 2000-09-08 Sony Corp 情報の表示方法及び、情報表示装置
US6590594B2 (en) 1999-03-25 2003-07-08 International Business Machines Corporation Window scroll-bar
US6847778B1 (en) 1999-03-30 2005-01-25 Tivo, Inc. Multimedia visual progress indication system
US20050166232A1 (en) 1999-04-21 2005-07-28 Lamkin Allan B... Presentation of media content from multiple media sources
JP2000312360A (ja) 1999-04-27 2000-11-07 Matsushita Electric Ind Co Ltd 情報提供装置
US6359615B1 (en) 1999-05-11 2002-03-19 Ericsson Inc. Movable magnification icons for electronic device display screens
US6411283B1 (en) 1999-05-20 2002-06-25 Micron Technology, Inc. Computer touch screen adapted to facilitate selection of features at edge of screen
JP2001014133A (ja) 1999-07-02 2001-01-19 Matsushita Electric Ind Co Ltd 複数画面制御装置
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
US6771250B1 (en) 1999-07-27 2004-08-03 Samsung Electronics Co., Ltd. Portable computer system having application program launcher for low power consumption and method of operating the same
US6349410B1 (en) 1999-08-04 2002-02-19 Intel Corporation Integrating broadcast television pause and web browsing
US6898307B1 (en) * 1999-09-22 2005-05-24 Xerox Corporation Object identification method and system for an augmented-reality display
KR100747421B1 (ko) 1999-10-20 2007-08-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 영상 콜렉션을 브라우징하는 장치 및 방법
US6724403B1 (en) 1999-10-29 2004-04-20 Surfcast, Inc. System and method for simultaneous display of multiple information sources
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
JP2001175386A (ja) 1999-12-21 2001-06-29 Fujitsu Ltd 表示装置及び表示方法並びに記憶媒体
US6313855B1 (en) * 2000-02-04 2001-11-06 Browse3D Corporation System and method for web browsing
US6859909B1 (en) 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
US20040049737A1 (en) 2000-04-26 2004-03-11 Novarra, Inc. System and method for displaying information content with selective horizontal scrolling
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US7149549B1 (en) 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
US20050204385A1 (en) 2000-07-24 2005-09-15 Vivcom, Inc. Processing and presentation of infomercials for audio-visual programs
AU2001283004A1 (en) 2000-07-24 2002-02-05 Vivcom, Inc. System and method for indexing, searching, identifying, and editing portions of electronic multimedia files
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
TW466415B (en) 2000-08-28 2001-12-01 Compal Electronics Inc Hand-held device with zooming display function
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
WO2002046903A1 (de) 2000-12-07 2002-06-13 Siemens Aktiengesellschaft Verfahren zum auswählen und aktivieren einer funktion aus einem bedienungsmenü und bedienungsorgan zum durchführen des verfahrens
US7139982B2 (en) 2000-12-21 2006-11-21 Xerox Corporation Navigation methods, systems, and computer program products for virtual three-dimensional books
US20020093531A1 (en) 2001-01-17 2002-07-18 John Barile Adaptive display for video conferences
US6928461B2 (en) 2001-01-24 2005-08-09 Raja Singh Tuli Portable high speed internet access device with encryption
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP2002244635A (ja) 2001-02-20 2002-08-30 Fujitsu General Ltd 画像表示装置
JP2002259001A (ja) 2001-03-05 2002-09-13 Shingo Tsuda ウィンドウ操作方法及び装置
DE10117457A1 (de) 2001-04-06 2002-10-17 T Mobile Deutschland Gmbh Verfahren zur Anzeige von standardisierten großformatigen Internet-Seiten mit beispielsweise HTML-Protokoll in Einhandendgeräten mit Mobilfunkanschluss
US7039643B2 (en) 2001-04-10 2006-05-02 Adobe Systems Incorporated System, method and apparatus for converting and integrating media files
US6901585B2 (en) 2001-04-12 2005-05-31 International Business Machines Corporation Active ALT tag in HTML documents to increase the accessibility to users with visual, audio impairment
JP3618303B2 (ja) 2001-04-24 2005-02-09 松下電器産業株式会社 地図表示装置
US20020158908A1 (en) 2001-04-30 2002-10-31 Kristian Vaajala Web browser user interface for low-resolution displays
US20020163545A1 (en) * 2001-05-01 2002-11-07 Hii Samuel S. Method of previewing web page content while interacting with multiple web page controls
EP1449190B1 (de) 2001-05-02 2013-07-10 Bitstream, Inc. Verfahren, systeme und programmierung zum herstellen und anzeigen von subpixeloptimierten bildern und solche bilder enthaltender digitaler inhalt
US6966837B1 (en) 2001-05-10 2005-11-22 Best Robert M Linked portable and video game systems
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20030013483A1 (en) 2001-07-06 2003-01-16 Ausems Michiel R. User interface for handheld communication device
US20030117427A1 (en) 2001-07-13 2003-06-26 Universal Electronics Inc. System and method for interacting with a program guide displayed on a portable electronic device
US20030025676A1 (en) 2001-08-02 2003-02-06 Koninklijke Philips Electronics N.V. Sensor-based menu for a touch screen panel
JP2003091347A (ja) 2001-09-18 2003-03-28 Sony Corp 情報処理装置、並びに画面表示方法、画面表示プログラム及び画面表示プログラムが記録された記録媒体
FR2830093A3 (fr) * 2001-09-25 2003-03-28 Bahia 21 Corp Procede de navigation par ecran tactile
US20040205496A1 (en) 2001-10-11 2004-10-14 International Business Machines Corporation Displaying subheadings and hyperlinks in a scrollable long document
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7084856B2 (en) 2001-10-22 2006-08-01 Apple Computer, Inc. Mouse having a rotary dial
US7345671B2 (en) 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US6970200B2 (en) * 2001-10-26 2005-11-29 Hewlett-Packard Development Company, L.P. System and method for a simplified digital camera interface for viewing images and controlling camera operation
US7714880B2 (en) 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
JP3943383B2 (ja) 2001-12-13 2007-07-11 インターナショナル・ビジネス・マシーンズ・コーポレーション ウィンドウ・システムを備えたコンピュータ・システム、ウィンドウを操作をするための方法、コンピュータ・プログラム。
AUPR947701A0 (en) 2001-12-14 2002-01-24 Activesky, Inc. Digital multimedia publishing system for wireless devices
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
US7284069B2 (en) 2002-01-11 2007-10-16 Xerox Corporation Method for document viewing
US7075512B1 (en) 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
US6907576B2 (en) 2002-03-04 2005-06-14 Microsoft Corporation Legibility of selected content
US7433546B2 (en) 2004-10-25 2008-10-07 Apple Inc. Image scaling arrangement
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US7171625B1 (en) 2002-06-18 2007-01-30 Actify, Inc. Double-clicking a point-and-click user interface apparatus to enable a new interaction with content represented by an active visual display element
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7166791B2 (en) 2002-07-30 2007-01-23 Apple Computer, Inc. Graphical user interface and methods of use thereof in a multimedia player
FI115255B (fi) 2002-09-02 2005-03-31 Myorigo Oy Kannettavan päätelaitteen näytön ohjausmenetelmä ja kannettava päätelaite
NO318991B1 (no) 2002-09-05 2005-05-30 Opera Software Asa Presentasjon av HTML-innhold på en liten terminalskjerm
US8015259B2 (en) 2002-09-10 2011-09-06 Alan Earl Swahn Multi-window internet search with webpage preload
FI20021682A (fi) 2002-09-20 2004-03-21 Nokia Corp Menetelmä laitteen lukitustilan avaamiseksi ja elektroninen laite
JP4005470B2 (ja) 2002-10-09 2007-11-07 オリンパス株式会社 情報処理装置及び情報処理プログラム
US7124125B2 (en) 2002-11-01 2006-10-17 Loudeye Corp. System and method for providing media samples on-line in response to media related searches on the internet
US7203901B2 (en) 2002-11-27 2007-04-10 Microsoft Corporation Small form factor web browsing
JP4446728B2 (ja) 2002-12-17 2010-04-07 株式会社リコー 複数のマルチメディア文書に格納された情報の表示法
JP2004206230A (ja) * 2002-12-24 2004-07-22 Casio Comput Co Ltd 電子機器
FI20022282A0 (fi) 2002-12-30 2002-12-30 Nokia Corp Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite
US7054965B2 (en) 2003-03-18 2006-05-30 Oqo Incorporated Component for use as a portable computing device and pointing device
US20040215719A1 (en) 2003-04-09 2004-10-28 Altshuler Dennis Wayne Method and system for designing, editing and publishing web page content in a live internet session
US20040201595A1 (en) 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
JP4046000B2 (ja) 2003-04-16 2008-02-13 日本電信電話株式会社 構造化文書の抽出方法及び装置及びプログラム
KR20040095410A (ko) 2003-04-28 2004-11-15 에스케이텔레텍주식회사 이동통신 단말기에서의 멀티 윈도우를 이용한 데이터서비스 처리 방법
US20050044509A1 (en) 2003-05-07 2005-02-24 Hunleth Frank A. Item selection using helical menus
US20040268393A1 (en) * 2003-05-08 2004-12-30 Hunleth Frank A. Control framework with a zoomable graphical user interface for organizing, selecting and launching media items
EP1620785A4 (de) 2003-05-08 2011-09-07 Hillcrest Lab Inc Steuerrahmen mit zoombarer grafischer benutzeroberfläche zum organisieren, auswählen und starten von media-artikeln
CN1303552C (zh) 2003-06-02 2007-03-07 英业达股份有限公司 网页块浏览的方法
JP2004363892A (ja) 2003-06-04 2004-12-24 Canon Inc 携帯機器
JP2005018229A (ja) 2003-06-24 2005-01-20 Seiko Epson Corp 文書閲覧端末、文書表示制御方法及び文書表示制御プログラム
US20040268400A1 (en) 2003-06-26 2004-12-30 Microsoft Corporation Quick starting video content
US7210107B2 (en) 2003-06-27 2007-04-24 Microsoft Corporation Menus whose geometry is bounded by two radii and an arc
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7594194B2 (en) * 2003-09-24 2009-09-22 Nokia Corporation Portrayal of navigation objects
US20070124669A1 (en) 2003-09-24 2007-05-31 Nokia Corporation Presentation of large objects on small displays
US20050071778A1 (en) 2003-09-26 2005-03-31 Nokia Corporation Method for dynamic key size prediction with touch displays and an electronic device using the method
US20050071736A1 (en) 2003-09-26 2005-03-31 Fuji Xerox Co., Ltd. Comprehensive and intuitive media collection and management tool
US7290006B2 (en) 2003-09-30 2007-10-30 Microsoft Corporation Document representation for scalable structure
US20050071782A1 (en) 2003-09-30 2005-03-31 Barrett Peter T. Miniaturized video feed generation and user-interface
US7231231B2 (en) 2003-10-14 2007-06-12 Nokia Corporation Method and apparatus for locking a mobile telephone touch screen
FR2861206B1 (fr) 2003-10-16 2006-11-24 Michel Rissons Procede et dispositif d'adaptation automatique d'affichage
NO20034724D0 (no) 2003-10-22 2003-10-22 Opera Software Asa Presentasjon av HTML-innhold på en skjermterminal
FI116641B (fi) 2003-10-24 2006-01-13 Nokia Corp Menetelmä elektronisessa laitteessa olevan pikavalinnan muuttamiseksi, laitteen näyttöyksikkö sekä elektroninen laite
KR100537280B1 (ko) 2003-10-29 2005-12-16 삼성전자주식회사 휴대용 단말기에서 터치스크린을 이용한 문자 입력 장치및 방법
US7814419B2 (en) 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
EP1714481A1 (de) 2004-01-29 2006-10-25 Koninklijke Philips Electronics N.V. Bildschirmsteuerung einer video-wiedergabeeinrichtung
US7551187B2 (en) 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
US7437005B2 (en) * 2004-02-17 2008-10-14 Microsoft Corporation Rapid visual sorting of digital files and data
JP2005234291A (ja) 2004-02-20 2005-09-02 Nissan Motor Co Ltd 表示装置および表示方法
JP4438448B2 (ja) 2004-02-26 2010-03-24 セイコーエプソン株式会社 構造化文書表示処理装置、構造化文書表示方法、構造化文書表示プログラム
US7788583B1 (en) 2004-03-04 2010-08-31 Google Inc. In-page full screen internet video method
JP2005267049A (ja) 2004-03-17 2005-09-29 Sharp Corp 携帯情報機器、その制御方法、および、その制御プログラム
US7546554B2 (en) 2004-03-31 2009-06-09 Fuji Xerox Co., Ltd. Systems and methods for browsing multimedia content on small mobile devices
WO2005106684A1 (ja) 2004-04-30 2005-11-10 Access Co., Ltd. ブラウジング時の動的画像拡大/縮小表示のための方法、端末装置およびプログラム
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
US20050283739A1 (en) 2004-06-18 2005-12-22 Julia Mohr Method and system to improve usability of a web application by providing a zoom function
US20050285880A1 (en) 2004-06-23 2005-12-29 Inventec Appliances Corporation Method of magnifying a portion of display
WO2006003591A2 (en) 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. Discontinuous zoom
JP2006018645A (ja) * 2004-07-02 2006-01-19 Sharp Corp 表示装置
EP3121697A1 (de) 2004-07-30 2017-01-25 Apple Inc. Modusabhängige grafische benutzerschnittstellen für berührungsempfindliche eingabevorrichtungen
WO2006020304A2 (en) 2004-07-30 2006-02-23 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7721197B2 (en) 2004-08-12 2010-05-18 Microsoft Corporation System and method of displaying content on small screen computing devices
US7071939B2 (en) 2004-08-12 2006-07-04 Broadcom Corporation Unique method for performing zoom-in and zoom-out operations with horizontal and vertical video decimation within a wireless device having a video display
US8028250B2 (en) * 2004-08-31 2011-09-27 Microsoft Corporation User interface having a carousel view for representing structured data
EP1791329A4 (de) 2004-09-17 2008-11-12 Nikon Corp Elektronische vorrichtung
EP2239668B1 (de) 2004-09-23 2015-09-09 BlackBerry Limited Graphische Benutzerschnittstelle für ein Web-Browser und Verfahren zur Implementierung derselben
US20060064647A1 (en) 2004-09-23 2006-03-23 Tapuska David F Web browser graphical user interface and method for implementing same
US7345688B2 (en) 2004-10-18 2008-03-18 Microsoft Corporation Semantic thumbnails
WO2006042417A1 (en) 2004-10-20 2006-04-27 Mary Louise Jackson Graphical interface for repetitive data entry and data visualization
US8169410B2 (en) 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
US20060123360A1 (en) 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
EP1677182B1 (de) 2004-12-28 2014-04-23 Sony Mobile Communications Japan, Inc. Anzeigeverfahren, tragbares Endgerät und Anzeigeprogramm
TW200622661A (en) 2004-12-30 2006-07-01 Tatung Co Ltd Method of zooming out a display image for a portable electrical device
KR101085447B1 (ko) 2004-12-31 2011-11-21 삼성전자주식회사 터치 위치 검출 장치 및 이의 터치 위치 검출 방법과,이를 구비한 터치 스크린 표시 장치
KR101034439B1 (ko) * 2005-01-25 2011-05-12 엘지전자 주식회사 터치 스크린 패턴 인식 기반의 멀티미디어 기기제어방법과 장치
US20060164382A1 (en) 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
WO2006094131A2 (en) 2005-03-02 2006-09-08 Guideworks, Llc Playlists and bookmarks in an interactive media guidance application system
US7587671B2 (en) 2005-05-17 2009-09-08 Palm, Inc. Image repositioning, storage and retrieval
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US20060277588A1 (en) 2005-06-01 2006-12-07 Madison Software Inc. Method for making a Web-DVD
US9098597B2 (en) 2005-06-03 2015-08-04 Apple Inc. Presenting and managing clipped content
US7676767B2 (en) 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
US20070067738A1 (en) 2005-09-16 2007-03-22 Microsoft Corporation Extensible, filtered lists for mobile device user interface
US7480870B2 (en) 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
CN101379461A (zh) 2005-12-30 2009-03-04 苹果公司 具有多重触摸输入的便携式电子设备
US20070157228A1 (en) 2005-12-30 2007-07-05 Jason Bayer Advertising with video ad creatives
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
US7596761B2 (en) 2006-01-05 2009-09-29 Apple Inc. Application user interface with navigation bar showing current and prior application contexts
US7844661B2 (en) 2006-06-15 2010-11-30 Microsoft Corporation Composition of local media playback with remotely generated user interface
KR100781706B1 (ko) 2006-08-16 2007-12-03 삼성전자주식회사 휴대 단말기의 리스트 스크롤 장치 및 방법
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20080062137A1 (en) 2006-09-11 2008-03-13 Apple Computer, Inc. Touch actuation controller for multi-state media presentation
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US20080165148A1 (en) 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
JP2009014796A (ja) 2007-06-30 2009-01-22 Sony Corp El表示パネル、電源線駆動装置及び電子機器
JP2013222229A (ja) 2012-04-12 2013-10-28 Konica Minolta Inc 入力操作装置、該装置を備えた画像形成装置、入力操作方法及び入力操作プログラム
JP6004868B2 (ja) 2012-09-27 2016-10-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20140092125A1 (en) 2012-09-28 2014-04-03 Apple Inc. Filtering Documents Based on Device Orientation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009019563A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
DE102009019560A1 (de) * 2009-04-30 2010-11-04 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von in Listen geordneter Information
US10139988B2 (en) 2009-04-30 2018-11-27 Volkswagen Ag Method and device for displaying information arranged in lists
DE102011010229A1 (de) * 2011-02-03 2012-08-09 Audi Ag Vorrichtung zur Bedienung mehrerer unterschiedlicher Funktionen eines Kraftfahrzeugs
US9075468B2 (en) 2011-02-03 2015-07-07 Audi Ag Device for controlling multiple different functions of a motor vehicle

Also Published As

Publication number Publication date
KR20090053851A (ko) 2009-05-27
WO2008030972A1 (en) 2008-03-13
JP5657082B2 (ja) 2015-01-21
KR20110115180A (ko) 2011-10-20
JP2010503126A (ja) 2010-01-28
JP2015084233A (ja) 2015-04-30
US10222977B2 (en) 2019-03-05
KR101121516B1 (ko) 2012-02-28
EP2069898B1 (de) 2013-08-28
US20240094899A1 (en) 2024-03-21
US20210389871A1 (en) 2021-12-16
US11481112B2 (en) 2022-10-25
US10838617B2 (en) 2020-11-17
US20080094370A1 (en) 2008-04-24
US20230056879A1 (en) 2023-02-23
US20150082240A1 (en) 2015-03-19
CN102681776B (zh) 2015-05-06
AU2007289019B2 (en) 2010-02-04
WO2008030972A8 (en) 2008-05-02
US20190196709A1 (en) 2019-06-27
JP2014067428A (ja) 2014-04-17
EP2069898A1 (de) 2009-06-17
CN102681776A (zh) 2012-09-19
JP5409364B2 (ja) 2014-02-05
US20180067643A1 (en) 2018-03-08
US8842074B2 (en) 2014-09-23
AU2007289019A1 (en) 2008-05-01
US9927970B2 (en) 2018-03-27
JP6510799B2 (ja) 2019-05-08
HK1134887A2 (en) 2010-05-14

Similar Documents

Publication Publication Date Title
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
DE112008000144B4 (de) Scrollen von Listen und Verschieben, Skalieren und Rotieren von Dokumenten auf einer Berührungsbildschirmanzeige
US11921969B2 (en) Portable electronic device, method, and graphical user interface for displaying structured electronic documents
DE202007019585U1 (de) Tragbare elektronische Vorrichtung für Fotoverwaltung
DE112007002088T5 (de) Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE112007002090T5 (de) Voicemail-Manager für tragbare Multifunktionsvorrichtung
US20080165148A1 (en) Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
US11972104B2 (en) Device, method, and graphical user interface for manipulating user interface objects
DE102015208532A1 (de) Kontinuität
AU2008100174B4 (en) Portable electronic device performing similar operations for different gestures

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080724

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20100923

R151 Utility model maintained after payment of second maintenance fee after six years
R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20130917

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right