DE112007002088T5 - Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige - Google Patents

Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige Download PDF

Info

Publication number
DE112007002088T5
DE112007002088T5 DE112007002088T DE112007002088T DE112007002088T5 DE 112007002088 T5 DE112007002088 T5 DE 112007002088T5 DE 112007002088 T DE112007002088 T DE 112007002088T DE 112007002088 T DE112007002088 T DE 112007002088T DE 112007002088 T5 DE112007002088 T5 DE 112007002088T5
Authority
DE
Germany
Prior art keywords
user interface
touch screen
contact area
interface objects
screen display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112007002088T
Other languages
English (en)
Inventor
Bas San Francisco Ording
Scott Mountain View Forstall
Greg San Jose Christie
Stephen O. San Francisco Lemay
Imran San Francisco Chaudhri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112007002088T5 publication Critical patent/DE112007002088T5/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

Computerimplementiertes Verfahren, aufweisend:
auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten, Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige;
Bestimmen einer ersten Position, die mit dem Schwerpunkt des Kontaktbereichs korrespondiert;
Bestimmen einer zweiten Position, die von der ersten Position versetzt ist, basierend auf der Form des Kontaktbereichs; und
Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der zweiten Position,
einer oder mehreren Distanzen zwischen der zweiten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und
einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.

Description

  • TECHNISCHES GEBIET
  • Die offenbarten Ausführungsformen beziehen sich generell auf tragbare elektronische Vorrichtungen und insbesondere auf tragbare Vorrichtungen; die anpassungsfähig eine Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige bestimmen und dann eine Operation gemäß der Cursor-Position durchführen.
  • HINTERGRUND
  • Mit kompakter werdenden tragbaren elektronischen Vorrichtungen und der Zunahme der Anzahl der Funktionen, die von einer gegebenen Vorrichtung ausgeführt werden, ist es eine signifikante Herausforderung geworden, eine Benutzerschnittstelle zu entwickeln, die es Benutzern erlauben, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders signifikant für handgehaltene, tragbare Vorrichtungen, die viel kleinere Bildschirme als Desktop oder Laptop Computer haben. Diese Situation ist unglücklich, weil die Benutzerschnittstelle die Schnittstelle ist, durch welche Benutzer nicht nur Inhalt sondern auch Antworten auf Benutzeraktionen oder Verhalten erhalten, darunter Benutzerversuche auf Eigenschaften, Werkzeuge und Funktionen einer Vorrichtung zuzugreifen. Einige tragbare Kommunikationsvorrichtungen (z. B. mobile Telefone, die manchmal Mobiltelefone genannt werden, Zelltelefone, zellulare Telefone und ähnliches) sind dazu übergegangen, mehr Druckknöpfe hinzuzufü gen, die Dichte an Druckknöpfen zu erhöhen, die Funktionen von Druckknöpfen zu überladen oder komplexe Menüsysteme zu verwenden, um einem Benutzer Zugriff, Speichern und Manipulieren von Daten zu ermöglichen. Diese gewöhnlichen Benutzerschnittstellen resultieren oft in komplizierten Tastenfolgen und Menühierarchien, die sich ein Benutzer merken muss.
  • Viele gewöhnliche Benutzerschnittstellen, wie jene, die physikalische Druckknöpfe aufweisen, sind ebenfalls inflexibel. Dies kann eine Benutzerschnittstelle davon abhalten, von irgendeiner Anwendung, die auf der tragbaren Vorrichtung ausgeführt wird, oder von Benutzern konfiguriert und/oder adaptiert zu werden. In Verbindung mit der zeitraubenden Vorraussetzung, mehrere Tastenfolgen und Menühierarchien im Gedächtnis zu behalten, und der Schwierigkeit, einen gewünschten Druckknopf zu aktivieren, ist diese Inflexibilität für die meisten Benutzer frustrierend.
  • Um die Benutzbarkeit zu verbessern, verwenden einige tragbare Vorrichtungen einen Berührungsbildschirm, um virtuelle Drucktasten, wie z. B. Soft-Tastaturen und Wahlflächen zu erstellen. Vom Fingerkontakt eines Benutzers mit den virtuellen Drucktasten bestimmt eine tragbare Vorrichtung den/die Dienst(e), der/die durch den Benutzer angefordert wird/werden, und führt entsprechend Aktionen aus. Da verschiedene Benutzer jedoch oft verschiedene Formen von Fingerabdrücken haben, ist es für diese tragbaren Vorrichtungen eine Herausforderung gewesen, eine vom Benutzer gewünschte virtuelle Drucktaste basierend auf den verschiedenen Formen von Fingerabdrücken und verschiedenen Kontexten, die mit verschiedenen durch eine tragbare Vorrichtung unterstützten Diensten assoziiert ist, exakt und anpassungsfähig zu identifizieren.
  • Demgemäß gibt es einen Bedarf nach tragbaren Multifunktionsvorrichtungen, die eingerichtet sind um anpassungsfähig eine Cursor-Position von einem Fingerkontakt mit einem Berührungsbildschirm zu bestimmen und dann Operationen gemäß der Cursor-Position durchzuführen. Solche Konfigurationen erhöhen die Effekti vität, Effizienz und Benutzerzufriedenheit mit tragbaren Multifunktionsvorrichtungen.
  • ZUSAMMENFASSUNG
  • Die obigen Nachteile und andere Probleme, die mit Benutzerschnittstellen für tragbare Vorrichtungen zusammenhängen, werden reduziert oder eliminiert, durch die offenbarte, tragbare Multifunktionsvorrichtung. In einigen Ausführungsformen weist die Vorrichtung eine berührungsempfindliche Anzeige (auch bekannt als "Berührungsbildschirm") mit einer graphischen Benutzerschnittstelle (graphical user interface, GUI), einen oder mehrere Prozessoren, Speicher und einen oder mehrere Module, Programme oder Gruppen von Anweisungen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen, auf. In einigen Ausführungsformen interagiert der Benutzer mit der GUI primär durch Fingerkontakte und Gesten auf der berührungsempfindlichen Anzeige. In einigen Ausführungsformen können die Funktionen Telefonieren, Videokonferenzen, E-Mail, Sofortmitteilungen, Blogging, digitale Fotographie, digitales Video, Webbrowsing, digitales Musikabspielen und/oder digitales Videoabspielen beinhalten. Anweisungen zum Ausführen dieser Funktionen können in einem computerlesbaren Speichermedium oder einem anderen Computerprogrammprodukt beinhaltet sein, das konfiguriert ist, durch eine oder mehrere Prozessoren ausgeführt zu werden.
  • Ein Aspekt der Erfindung weist ein computerimplementiertes Verfahren auf, das durch eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt wird. Die tragbare Vorrichtung detektiert einen Kontaktbereich eines Fingers mit der Berührungsbildschirmanzeige und bestimmt dann eine erste Position, die mit dem Kontaktbereich assoziiert wird. Die Cursor-Position des Fingerkontakts wird mindestens teilweise bestimmt basierend auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benut zerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  • Ein weiterer Aspekt der Erfindung weist eine graphische Benutzerschnittstelle auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige auf. Die graphische Benutzerschnittstelle enthält einen Cursor und eine Mehrzahl von Benutzerschnittstellenobjekten. Die Cursor-Position wird mindestens teilweise bestimmt basierend auf: einer ersten Position, die mit einem Kontaktbereich eines Fingers mit der Berührungsbildschirmanzeige assoziiert ist, eine oder mehrere Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und eine oder mehrere Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  • Ein weiterer Aspekt der Erfindung weist eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten auf. Die Vorrichtung beinhaltet einen oder mehrere Prozessoren, Speicher und ein Programm, das in dem Speicher gespeichert ist, und eingerichtet ist, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden. Das Programm beinhaltet: Anweisungen zum Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige, Anweisungen zum Bestimmen einer mit dem Kontaktbereich assoziierten ersten Position, und Anweisungen zum Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  • Ein weiterer Aspekt der Erfindung weist ein Computerprogrammprodukt auf das ein computerlesbares Speichermedium und einen Computerprogrammmechanis mus (z. B. eines oder mehrere Computerprogramme) enthält, die darin eingebettet sind. Der Computerprogrammmechanismus beinhaltet Anweisungen, die, wenn sie durch eine tragbare elektronische Vorrichtung ausgeführt werden, die Vorrichtung veranlasst: zum Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige; zum Bestimmen einer mit dem Kontaktbereich assoziierten ersten Position; und zum Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  • Ein weiterer Aspekt der Erfindung weist eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige auf. Die Vorrichtung beinhaltet: Mittel zum Detektieren eines Kontaktbereichs mit einem Finger mit der Berührungsbildschirmanzeige; Mittel zum Bestimmen einer mit dem Kontaktbereich assoziierten ersten Position; und Mittel zum Bestimmen einer Cursor-Position, die zumindest teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und einer oder mehrere Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der vorgenannten Ausführungsformen der Erfindung sowie zusätzlichen Ausführungsformen davon, sollte auf die unten beschriebenen Ausführungsformen Bezug genommen werden in Verbindung mit den folgenden Zeichnungen, in welchen ähnliche Bezugszeichen sich auf korrespondierende Teile über die Figuren hinweg beziehen.
  • 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen mit berührungsempfindlichen Anzeigen in Übereinstimmung mit einigen Ausführungsformen darstellen.
  • 2 stellt in Übereinstimmung mit einigen Ausführungsformen eine tragbare Multifunktionsvorrichtung mit einem Berührungsbildschirm dar.
  • 3 stellt in Übereinstimmung mit einigen Ausführungsformen eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar.
  • 4A und 4B stellen in Übereinstimmung mit einigen Ausführungsformen beispielhafte Benutzerschnittstellen für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar.
  • 5 ist ein Flussdiagramm, das einen Prozess zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige in Übereinstimmung mit einigen Ausführungsformen darstellt.
  • 6A bis 6L stellen in Übereinstimmung mit einigen Ausführungsformen beispielhafte Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige dar.
  • 6M bis 6O stellen in Übereinstimmung mit einigen Ausführungsformen ein beispielhaftes Verfahren zum dynamischen Anpassen von Empfindlichkeitszahlen dar, die mit Softtastaturtasten assoziiert werden, wenn ein Wort mit den Softtastaturtasten getippt wird.
  • BESCHREIBUNG DER AUSFÜHRUNGFORMEN
  • Es wird nun im Detail Bezug genommen auf Ausführungsformen, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details gegeben, um ein vertieftes Verständnis der vorliegenden Erfindung zu ermöglichen. Jedoch ist es für den Fachmann ersichtlich, dass die vorliegende Erfindung ohne diese spezifischen Details ausgeführt werden kann. An anderen Stellen werden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltkreise und Netzwerke nicht im Detail beschrieben, um nicht unnötig Aspekte der Ausführungsformen zu verdecken.
  • Es ist auch verständlich, dass obwohl die Begriffe erster, zweiter, usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt sein sollten. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste auch eine zweite Geste genannt werden und ähnlich eine zweite Geste könnte eine erste Geste genannt werden, ohne den Bereich der vorliegenden Erfindung zu verlassen.
  • Die Terminologie, die hier in der Beschreibung der Erfindung verwendet wird, ist nur zum Zwecke der Beschreibung spezieller Ausführungsformen und hat nicht die Intention, die Erfindung zu begrenzen. Wie in der Beschreibung der Erfindung und den angefügten Ansprüchen verwendet, haben die Einzahlformen "ein", "eine" und "der, die, das" die Intention, Pluralformen ebenso zu umfassen, falls der Kontext nichts anderes klar andeutet. Es ist auch verständlich, dass der Begriff "und/oder", wie er hier gebraucht wird, sich bezieht auf und umfasst jede und alle möglichen Kombinationen von einem oder mehreren der zugeordneten aufgelisteten Elemente. Es ist weiter verständlich, dass die Begriffe "aufweist" und/oder "aufweisend", wenn in dieser Spezifikation benutzt, die Anwesenheit der genannten Eigenschaften ganzen Zahlen, Schritten, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht die Anwesenheit oder Hinzufügen einer oder mehrerer anderer Eigenschaften, ganzen Zahlen, Schritten, Operationen, Elemente, Komponenten und/oder Gruppen davon, ausschließt.
  • Ausführungsformen einer tragbaren Multifunktionsvorrichtung, Benutzerschnittstellen für solche Vorrichtungen und assoziierte Prozesse zur Benutzung solcher Vorrichtungen sind beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie z. B. ein Mobiltelefon, das auch andere Funktionen, wie z. B. PDA und/oder Musikabspielfunktionen aufweist.
  • Die Benutzerschnittstelle kann ein physikalisches Klickrad zusätzlich zu einem Berührungsbildschirm oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird, aufweisen. Ein Klickrad ist eine Benutzerschnittstellenvorrichtung, die Navigationsbefehle bereitstellen kann, basierend auf einer Winkelverstellung des Rades oder eines Kontaktpunktes mit dem Rad von einem Benutzer der Vorrichtung. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl, der zu einer Wahl eines oder mehrerer Elemente korrespondiert, bereitzustellen, z. B. wenn der Benutzer der Vorrichtung zumindest einen Teil des Rades oder das Zentrum des Rades herunterdrückt. Alternativ kann eine Unterbrechung des Kontakts mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der einer Wahl entspricht. Der Einfachheit halber, wird in der folgenden Diskussion eine tragbare Multifunktionsvorrichtung, die einen Berührungsbildschirm aufweist, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass einige der Benutzerschnittstellen und zugeordneten Prozesse auf andere Vorrichtungen angewandt werden können, wie z. B. Personalcomputer und Laptopcomputer, die eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen aufweisen können, wie z. B. ein physikalisches Klickrad, eine physikalische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt eine Mehrzahl von Anwendungen, wie z. B. Telefonanwendungen, eine Videokonferenzanwendung, eine E-Mailanwendung, eine Sofortmitteilungsanwendung, eine Blogginganwendung, eine Fotoverwaltungsanwendung, eine Digitalkameraanwendung, eine digital Videokameraanwendung, eine Webbrowsinganwendung, eine digitale Musikabspielanwendung und/oder eine digitale Videospielanwendung.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können zumindest eine gemeinsame physikalische Benutzerschnittstellenvorrichtung, wie z. B. den Berührungsbildschirm verwenden. Eine oder mehrere Funktionen des Berührungsbildschirms, sowie entsprechende angezeigte Informationen auf der Vorrichtung können angepasst und/oder variiert werden, von einer Anwendung zur nächsten und/oder innerhalb einer entsprechenden Anwendung. Auf diese Weise kann eine gemeinsame physikalische Architektur (wie z. B. der Berührungsbildschirm) der Vorrichtung die Mehrzahl an Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent sind, unterstützen.
  • Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen aufweisen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standard-Konfigurationen von Symbolen auf den dargestellten Icons der Tastatur aufweisen, wie z. B. jene, die beschrieben sind in U.S. Patent Anmeldungen 11/459,606, "Keyboards For Portable Electronic Devices", eingereicht am 24. Juli 2006, und 11/459,615, "Touch Screen Keyboards For Portable Electronic Devices", eingereicht am 24. Juli 2006, deren Inhalte hier durch Bezugnahme eingebunden sind. Die Tastaturausführungsformen können eine reduzierte Anzahl an Icons (oder Softtasten) aufweisen, in Bezug auf die Anzahl an Tasten in existierenden physikalischen Tastaturen, wie z. B. jener für eine Schreibmaschine. Diese macht es für Benutzer einfacher, ein oder mehrere Icons der Tastatur zu wählen und damit ein oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können angezeigte Icons in Übereinstimmung mit Benutzeraktionen modifiziert werden, wie z. B. Wahl eines oder mehrerer Icons und/oder eines oder mehrerer korrespondierender Symbole. Eine oder mehrere Anwendungen auf der tragbaren Vorrichtung können gemeinsame und/oder verschiedene Tastaturausführungsformen verwenden. Damit können die verwendeten Tastaturausführungsformen zumindest auf einige der Anwendungen zugeschnitten werden. In einigen Ausführungsformen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel können eine oder mehrere Tasta turausführungsformen auf einen entsprechenden Benutzer basierend auf einer Wortbenutzungshistorie (Lexikographie, Jargon, individuelle Benutzung) des entsprechenden Benutzers, zugeschnitten werden. Einige der Tastaturausführungsformen können angepasst werden, um die Wahrscheinlichkeit eines Benutzerfehlers zu reduzieren, wenn ein oder mehrere Icons und damit ein oder mehrere Symbole gewählt werden, wenn die Softtastaturausführungsformen verwendet werden.
  • Die Aufmerksamkeit wird nun auf Ausführungsformen der Vorrichtung gerichtet. 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsformen darstellen. Die berührungsempfindliche Anzeige 112 wird manchmal auch ein „Berührungsbildschirm" der Einfachheit halber genannt und kann auch bekannt sein als ein berührungsempfindliches Anzeigensystem oder so genannt werden. Die Vorrichtung 100 kann einen Speicher 102 (der eine oder mehrere computerlesbare Speichermedien enthalten kann), eine Speichersteuervorrichtung 122, eine oder mehrere Verarbeitungseinheiten (CPU's) 120, eine Peripheriegeräteschnittstelle 118, Hochfrequenz (radio frequency RF) Schaltkreise 108, Audioschaltkreise 110, einen Lautsprecher 111, ein Mikrophon 113 und ein Eingabe/Ausgabe (Input/Output, I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124 aufweisen. Die Vorrichtung 100 kann einen oder mehrere optische Sensoren 164 aufweisen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signallinien 103 kommunizieren.
  • Es sollte betont werden, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt haben kann und zwei oder mehr Komponenten kombinieren kann, oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweisen kann. Die verschiedenen Komponenten, die in den 1A und 1B gezeigt sind, können in Hardware, Software oder einer Kombination von Hardware und Software implementiert sein, darunter ein oder mehrere signalverarbeitungs- und/oder anwendungsspezifische, integrierte Schaltkreise.
  • Der Speicher 102 kann High Speed Random Access Speicher aufweisen und auch nichtvolatilen Speicher aufweisen, wie z. B. eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen, und andere nicht volatile Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 kann durch andere Komponenten der Vorrichtung 100, wie z. B. der CPU 120 und der Peripheriegeräteschnittstelle 118, durch die Speichersteuervorrichtung 122 gesteuert werden.
  • Die Peripheriegeräteschnittstelle 118 verbindet die Eingabe und Ausgabe der Peripheriegerätevorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 betreiben oder führen verschiedene Softwareprogramme und/oder Gruppen an Anweisungen aus, die in Speicher 102 gespeichert sind, um verschiedene Funktionen für die Vorrichtung 100 auszuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsformen kann die Peripheriegeräteschnittstelle 118 die CPU 120 und die Speichersteuervorrichtung 122 auf einem einzigen Chip implementiert sein, wie z. B. ein Chip 104. In einigen anderen Ausführungsformen können sie auf separaten Chips implementiert sein.
  • Der RF (radio frequency) Schaltkreis 108 empfängt und sendet RF Signale, auch elektromagnetische Signale genannt. Der RF Schaltkreis 108 konvertiert elektrische Signale zu/von elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. Der RF Schaltkreis 108 kann wohlbekannte Schaltkreise zum Ausführen dieser Funktionen aufweisen, darunter, aber nicht beschränkt auf ein Antennensystem, ein RF Transceiver, einen oder mehrere Verstärker, einen Empfänger, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, ein CODEC Chipsatz, ein Subscriber Identity Module (SIM) Card, Speicher, usw. Der RF Schaltkreis 108 kann mit Netzwerken kommunizieren, wie z. B. das Internet, auf das auch Bezug genommen wird als World Wide Web (WWW), ein Intranet und/oder ein Drahtlosnetzwerk, wie z. B. ein zellulares Telefonnetzwerk, ein Wireless Local Area Network (LAN) und/oder ein Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation kann jede aus einer Mehrzahl an Kommunikationsstandards, Protokollen und Technologien verwenden, darunter aber nicht beschränkt auf, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b. IEEE 802.11g und/oder IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, ein Protokoll für E-Mail (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Sofortmitteilungen (z. B. extensible Messaging and Presence Protokoll (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), und/oder Instant Messaging and Presence Service (IMPS)), und/oder Short Message Service (SMS)), oder jedes andere geeignete Kommunikationsprotokoll, darunter Kommunikationsprotokolle, die zum Zeitpunkt der Anmeldung dieses Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111, und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripheriegeräteschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal zu dem Lautsprecher 111. Der Lautsprecher 111 wandelt die elektrischen Signale in vom Menschen wahrnehmbare Schallwellen um. Der Audioschaltkreis 110 empfängt auch elektrische Signale, die von dem Mikrophon 113 von Schallwellen umgewandelt wurden. Der Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten und überträgt die Audiodaten zu der Peripheriegeräteschnittstelle 118 zur Verarbeitung. Audiodaten können abgerufen werden von und/oder übertragen werden zu Speicher 102 und/oder dem RF Schaltkreis 108 durch die Peripheriegeräteschnittstelle 118. In einigen Ausführungsformen kann der Audioschaltkreis 110 auch einen Sprechgarnituranschluss aufweisen (z. B. 212, 2). Der Sprechgarnituranschlussstecker stellt eine Schnittstelle zwischen dem Audioschaltkreis 110 und entfernbare Audioeingabe/Ausgabeperipheriegeräten bereit, wie z. B. Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit beidem, sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O Untersystem 106 verbindet Eingabe-/Ausgabeperipheriegeräte auf der Vorrichtung 100 sowie dem Berührungsbildschirm 112 und andere Eingabesteuervorrichtungen 116 zu der Peripheriegeräteschnittstelle 118. Das I/O Untersystem 106 kann eine Anzeigensteuervorrichtung 156 aufweisen und eine oder mehrere Eingabesteuereinrichtungen 160 für andere Eingabe- oder Steuervorrichtungen. Die eine oder mehrere Eingabesteuereinrichtungen 160 empfangen/senden elektrische Signale von/zu anderen Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabesteuervorrichtungen 116 können physikalische Knöpfe (z. B. Druckknöpfe, Kipphebel, etc.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder usw. aufweisen. In einigen anderen Ausführungsformen kann die Eingabesteuereinrichtung(en) 160 zu jedem oder keinem der folgenden verbunden sein: eine Tastatur, Infrarotanschluss, USB-Anschluss und ein Zeigegerät, wie eine Maus. Der eine oder mehrere Knöpfe (z. B. 208, 2) kann einen Aufwärts-/Abwärtsknopf zur Lautstärkeregelung des Lautsprechers 111 und/oder des Mikrophons 113 aufweisen. Der eine oder mehrere Knöpfe können einen Druckknopf (z. B. 206, 2) aufweisen. Ein kurzes Drücken des Druckknopfes kann eine Sperre des Berührungsbildschirms 112 entsperren, oder einen Prozess beginnen, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entsperren, wie beschrieben in U.S. Patent Anmeldung Nr. 11/322,549, "Unlocking a Device by Performing Gestures an an Unlock Image," eingereicht am 23. Dezember 2005, welches hiermit referenzierend eingebunden ist. Ein längeres Drücken des Druckknopfes (z. B. 206) kann die Leistung zu der Vorrichtung 100 an oder ausschalten. Der Benutzer kann in der Lage sein, eine Funktionalität von einem oder mehreren der Knöpfe zu verändern. Der Berührungsbildschirm 112 wird verwendet, virtuelle oder Softknöpfe und eine oder mehrere Softtastaturen zu implementieren.
  • Der berührungsempfindliche Berührungsbildschirm 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigensteuervorrichtung 156 empfängt und/oder sendet elektrische Signale von/zu dem Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgaben an den Benutzer an. Die visuellen Ausgaben können Graphik, Text, Icons, Video und jede Kombination davon (zusammengefasst als "Graphik" bezeichnet) aufweisen. In einigen Ausführungsformen können einige oder alle der visuellen Ausgaben zu Benutzerschnittstellenobjekten korrespondieren, von denen weitere Details unten beschrieben sind.
  • Ein Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe an Sensoren, die Eingabe von einem Benutzer basierend auf haptischen und/oder taktilem Kontakt akzeptiert. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 (zusammen mit jedem zugehörigen Modul und/oder Gruppen an Instruktionen in Speicher 102) erfassen Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Berührungsbildschirm 112 und wandeln den erfassten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Icons, Webseiten oder Bilder), die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Kontaktpunkt zwischen einem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 kann LCD (liquid crystal display) Technologie oder LPD (light emitting polymer display) Technologie verwenden, obwohl andere Anzeigentechnologien in anderen Ausführungsformen verwendet werden können. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 kön nen Kontakt und jede Bewegung oder Unterbrechung davon erfassen, unter Verwendung jeder von einer Mehrzahl an berührungsempfindlichen Technologien, die jetzt bekannt sind, oder später entwickelt werden, darunter aber nicht beschränkt auf kapazitive, resistive, Infrarot- und akustische Oberflächenwellen-Technologie sowie andere Nahbereichsensorfelder oder andere Elemente zum Bestimmen einer oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm 112.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsformen des Berührungsbildschirms 112 analog zu den vielfachberührungsempfindlichen Tafeln sein, die in den folgenden U.S. Patenten beschrieben sind: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), und/oder 6,677,932 (Westerman), und/oder U.S. Patent Veröffentlichung 2002/0015024A1 , von denen jede hier referenzierend eingebunden ist. Jedoch zeigt ein Berührungsbildschirm 112 visuelle Ausgaben von der tragbaren Vorrichtung 100 an, wohingegen berührungsempfindliche Tafeln keine visuellen Ausgaben bereitstellen.
  • Eine berührungsempfindliche Anzeige in einigen Ausführungsformen des Berührungsbildschirms 112 kann wie die folgenden Anmeldungen beschrieben sein: (1) U.S. Patent Anmeldung Nr. 11/381,313, "Multipoint Touch Surface Controller", eingereicht am 2. Mai 2006; (2) U.S. Patent Anmeldung Nr. 10/840,862, "Multipoint Touch Screen", eingereicht am 6. Mai 2004; (3) U.S. Patent Anmeldung Nr. 10/903,964, "Gestures For Touch Sensitive Input Devices", eingereicht am 30. Juli 2004; (4) U.S. Patent Anmeldung Nr. 11/048,264, "Gestures For Touch Sensitive Input Devices", eingereicht am 31. Januar 2005; (5) U.S. Patent Anmeldung Nr. 11/038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", eingereicht am 18. Januar 2005; (6) U.S. Patent Anmeldung Nr. 11/228,758, "Virtual Input Device Placement On A Touch Screen User Interface", eingereicht am 16. September 2005; (7) U.S. Patent Anmeldung Nr. 11/228,700, "Operation Of A Computer With A Touch Screen Interface", eingereicht am 16. September 2005; (8) U.S. Patent Anmeldung Nr. 11/228,737, "Activating Virtual Keys Of A Touch Screen Virtual Keyboard", eingereicht am 16. September 2005; and (9) U.S. Patent Anmeldung Nr. 11/367,749, "Multi-Functional Hand-Held Device", eingereicht am 3. März 2006. Alle diese Anmeldungen sind hiermit durch Bezugnahme eingebunden.
  • Der Berührungsbildschirm 112 kann eine Auflösung höher als 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm eine Auflösung von ungefähr 160 dpi. Der Benutzer kann mit dem Berührungsbildschirm 112 in Kontakt treten unter Verwendung irgendeines geeigneten Objektes oder Anhangs, wie z. B. einen Stift, einen Finger, usw. In einigen Ausführungsformen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, die viel weniger präziser als stiftbasierte Eingaben sind, aufgrund des größeren Kontaktbereichs eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsformen übersetzt die Vorrichtung die groben, fingerbasierten Eingaben in eine präzise Zeiger-/Cursor-Position oder Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen kann die Vorrichtung 100 zusätzlich zu dem Berührungsbildschirm ein Berührungsfeld (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen aufweisen. In einigen Ausführungsformen ist das Berührungsfeld ein berührungsempfindlicher Bereich der Vorrichtung, der im Gegensatz zu dem Berührungsbildschirm nicht-visuelle Ausgaben anzeigt. Das Berührungsfeld kann eine berührungsempfindliche Oberfläche sein, die von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die von dem Berührungsbildschirm gebildet wird.
  • In einigen Ausführungsformen kann die Vorrichtung 100 ein physikalisches oder virtuelles Klickrad als eine Eingabesteuervorrichtung 116 aufweisen. Ein Benutzer kann navigieren unter und interagieren mit einem oder mehreren graphischen Objekten (im Folgenden als Icons bezeichnet), die auf dem Berührungsbildschirm 112 angezeigt werden durch Rotieren des Klickrades oder durch Bewegen eines Kontaktpunktes mit dem Klickrad (wobei die Größe der Bewegung des Kontaktpunktes durch seine Winkelverstellung mit Bezug auf einen zentralen Punkt des Klickrades gemessen wird). Das Klickrad kann auch verwendet werden um ein oder mehrere der angezeigten Icons auszuwählen. Zum Beispiel kann der Benutzer auf zumindest einen Teil des Klickrades oder eines zugeordneten Knopfes drücken. Benutzerbefehle und Steuerbefehle, die durch den Benutzer über das Klickrad bereitgestellt werden, können von einer Eingabesteuereinrichtung 160 verarbeitet werden sowie eine oder mehrere der Module und/oder Gruppen an Anweisungen in Speicher 102. Für ein virtuelles Klickrad, können das Klickrad bzw. die Klickradsteuervorrichtung Teil des Berührungsbildschirms 112 bzw. der Anzeigensteuervorrichtung 156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein lichtundurchlässiges oder semitransparentes Objekt sein, das erscheint und verschwindet auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung. In einigen Ausführungsformen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt und wird durch Benutzerkontakt mit dem Berührungsbildschirm bedient.
  • Die Vorrichtung 100 weist auch ein Energiesystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung auf. Das Energiesystem 162 kann ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (alternating current (AC)), ein Wiederaufladesystem, einen Leistungsunterbrechungserfassungsschaltkreis, einen Leistungsumsetzer oder Inverter, einen Energiestatusindikator (z. B. eine light emitting diode (LED)) und jede beliebige andere Komponente, die mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen zusammenhängt.
  • Die Vorrichtung 100 kann auch einen oder mehrere optische Sensoren 164 aufweisen. 1A und 1B zeigen einen optischen Sensor, der zu einer optischen Sensorsteuervorrichtung 158 in I/O Untersystem 106 verbunden ist. Der optische Sensor 164 kann Charge-Coupled Device (CCD) oder komplementäre Metalloxid- Halbleiter (complementary metal-oxide semiconductor (CMOS)) Fototransistoren aufweisen. Der optische Sensor 164 empfängt Licht von der Umgebung, das durch eine oder mehrere Linsen geleitet wird und konvertiert das Licht in Daten, die ein Bild repräsentieren. In Verbindung mit einem Bildmodul 143 (auch ein Kameramodul genannt) kann der optische Sensor 164 stehende Bilder oder Video aufzeichnen. In einigen Ausführungsformen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 lokalisiert, entgegengesetzt der Berührungsbildschirmanzeige 112 auf der Front der Vorrichtung, so dass die Berührungsbildschirmanzeige als ein Sucher für entweder stehende und/oder Videobildaufnahmen verwendet werden kann. In einigen Ausführungsformen ist ein optischer Sensor auf der Front der Vorrichtung lokalisiert, so dass die Benutzerbilder für Videokonferenzen erhalten werden können, während der Benutzer andere Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In einigen Ausführungsformen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Rotation der Linsen und des Sensors in dem Gehäuse der Vorrichtung), so dass ein einziger optischer Sensor 164 zusammen mit der Berührungsbildschirmanzeige für Videokonferenzen und stehende und/oder Videobildaufnahmen verwendet werden kann.
  • Die Vorrichtung 100 kann auch einen oder mehrere Nahbereichsensoren 166 aufweisen. 1A und 1B zeigen einen Nahbereichsensor 166, der zu der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Nahbereichsensor 166 zu einer Eingabesteuereinrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Nahbereichsensor 166 kann funktionieren, wie beschrieben in der U.S. Patent Anmeldung Seriennummer 11/241,839, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; Seriennummer 11/240,788, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; zuzuweisende Seriennummer, "Using Ambient Light Sensor To Augment Proximity Sensor Output", eingereicht am 7. Januar 2007, Anwaltsdokumentnummer 04860.P4851US1; zuzuweisende Seriennummer, "Automated Response To And Sensing Of User Activity In Portable Devices", eingereicht am 24. Oktober 2006, Anwaltsdokumentnummer 04860.P4293; und zuzuweisende Seriennummer, "Methods And Systems For Automatic Configuration Of Peripherals", Anwaltsdokumentnummer 04860.P4634, eingereicht am 12. Dezember 2006, die hiermit unter Bezugnahme eingebunden sind. In einigen Ausführungsformen stellt sich der Nahbereichsensor aus und schaltet den Berührungsbildschirm 112 aus, wenn die Multifunktionsvorrichtung in der Nähe des Ohres des Benutzers gebracht wird (z. B. wenn der Benutzer einen Telefonanruf tätigt). In einigen Ausführungsformen stellt der Nahbereichsensor den Bildschirm aus, wenn die Vorrichtung in der Handtasche des Benutzers oder anderen dunklen Bereichen ist, um unnötigen Batterieverbrauch zu vermeiden, wenn die Vorrichtung in einem gesperrten Zustand ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1A und 1B zeigen einen Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Beschleunigungsmesser 168 zu einer Eingabesteuereinrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Beschleunigungsmesser 168 kann wie in Folgendem beschrieben funktionieren: U.S. Veröffentlichung Nr. 20050190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices" und U.S. Veröffentlichung Nr. 20060017692 , "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer", von denen beide hier referenzierend eingebunden sind. In einigen Ausführungsformen werden die Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht angezeigt, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmessern empfangen werden.
  • In einigen Ausführungsformen können die Softwarekomponenten, die in Speicher 102 gespeichert sind, ein Betriebssystem 126, ein Kommunikationsmodul (oder eine Gruppe an Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Gruppe an Anweisungen) 130, ein Graphikmodul (oder Gruppe an Anweisungen) 132, ein Texteingabemodul (oder Gruppe an Anweisungen) 134, ein Global Positioning System (GPS) Modul (oder Gruppe an Anweisungen) 135 und Anwendungen (oder Gruppe an Anweisungen) 136 aufweisen.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie z. B. V × Works) beinhalten verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichersteuervorrichtung, Energieverwaltung, etc.) und erleichtern Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und beinhaltet auch verschiedene Softwarekomponenten zum Verwalten von Daten, die von dem RF Schaltkreis 108 und/oder dem externen Anschluss 124 empfangen werden. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIREWIRE, etc.) ist angepasst direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, etc.) verbunden zu sein. In einigen Ausführungsformen ist der externe Anschluss ein Vielfachpin (z. B. 30-Pin) Verbindungseinrichtung, der derselbe ist, oder ähnlich ist zu und/oder kompatibel ist mit der 30-Pin Verbindungseinrichtung, der bei iPod Vorrichtungen benutzt wird (Markenzeichen der Apple Computer Inc.).
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dem Berührungsbildschirm 112 (in Verbindung mit der Anzeigensteuervorrichtung 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. ein Berührungsfeld oder physikalisches Klickrad) erfassen. Das Kontakt-/Bewegungsmodul 130 beinhaltet verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, die mit der Erfassung von Kontakt in Zusammenhang stehen, wie z. B. Bestimmen, ob Kontakt stattgefunden hat, Bestimmen, ob es Bewegung des Kontaktes gibt und Verfolgen der Bewegung über den Berührungsbildschirm 112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen einer Bewegung des Kontaktpunktes kann beinhalten, Bestimmen von Schnelligkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder einer Beschleunigung (einer Änderung des Betrages und/oder Richtung) des Kontaktpunktes. Diese Operationen können auf einzelne Kontakte (z. B. Einfingerkontakte) angewandt werden oder auf simultane Kontakte (z. B. "Mehrberührungs-"/Mehrfingerkontakte). In einigen Ausführungsformen erfasst das Kontakt-/Bewegungsmodul 130 und die Anzeigensteuervorrichtung 156 auch Kontakt auf einem Berührungsfeld. In einigen Ausführungsformen erfasst das Kontakt-/Bewegungsmodul 130 und die Steuereinrichtung 160 Kontakt auf einem Klickrad.
  • Das Graphikmodul 132 beinhaltet verschiedene bekannte Softwarekomponenten zum Wiedergeben und Anzeigen von Graphik auf dem Berührungsbildschirm 112, darunter Komponenten zum Ändern der Intensität der Graphik, die angezeigt wird. Wie hierin benutzt beinhaltet der Begriff "Graphik" jedes Objekt, das einem Benutzer angezeigt werden kann, darunter ohne Begrenzung Text, Webseiten, Icons (sowie Benutzerschnittstellenobjekte darunter Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • Das Texteingabemodul 134, welches eine Komponente des Graphikmoduls 132 sein kann, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, Sofortmitteilungen (Instant Messaging, IM) 141, Blogging 142, Browser 147 und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Benutzung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, zu Kamera 143 und/oder Blogger 142 sowie Bild-/Videometadaten und zu Anwendungen, die positionsbasierte Dienste sowie Wetterwidgets, gelbe Seitenwidgets und Landkarten/Navigationswidgets).
  • Die Anwendungen 136 können die folgenden Module (oder Gruppen an Instruktionen) oder eine Untergruppe oder eine Übergruppe davon beinhalten:
    • • ein Kontaktemodul 137 (manchmal ein Adressbuch oder Kontaktliste genannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein E-Mail Client Modul 140;
    • • ein Sofortmitteilungs-(IM)Modul 141;
    • • ein Bloggingmodul 142
    • • ein Kameramodul 143 für stehende und/oder Videobilder;
    • • ein Bilderverwaltungsmodul 144;
    • • ein Videoabspielmodul 145;
    • • ein Musikabspielmodul 146;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widgetmodule 149, die beinhalten können Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Weckerwidget 149-4, Wörterbuchwidget 149-5 und andere Widgets, die der Benutzer erhalten hat sowie benutzererzeugte Widgets 149-6;
    • • Widgeterzeugungsmodul 150 zum Erstellen benutzererstellter Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikabspielmodul 152, das Videoabspielmodul 145 und Musikabspielmodul 146 verbindet;
    • • Notizblockmodul 153; und/oder
    • • Landkartenmodul 154.
  • Beispiele anderer Anwendungen 136, die in Speicher 102 gespeichert sein können, beinhalten andere Wortverarbeitungsanwendungen, JAVA-unterstützte An wendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachabgleich.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, kann das Kontaktemodul 137 verwendet werden, ein Adressbuch oder eine Kontaktliste zu verwalten, darunter: Hinzufügen von Name(n) zu dem Adressbuch; Löschen von Name(n) von dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mailadresse(n), physikalische Adresse(n), oder andere Informationen mit einem Namen; Verbinden eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder E-Mailadressen, um Kommunikation per Telefon 138 zu initiieren und/oder Videokonferenz 139, E-Mail 140 oder IM 141 zu erleichtern; usw.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Telefonmodul 138 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Telefonnummer korrespondiert, auf eine oder mehrere Telefonnummern in dem Adressbuch 137 zuzugreifen, eine Telefonnummer, die eingegeben wurde zu modifizieren, eine entsprechende Telefonnummer zu wählen, eine Konversation zu führen und die Verbindung zu unterbrechen oder aufzulegen, wenn die Konversation beendet ist. Wie oben beschrieben kann die drahtlose Kommunikation jedes einer Mehrzahl an Kommunikationsstandards, Protokollen und Technologien verwenden.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optischen Sensor 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Kontaktliste 137 und Telefonmodul 138 kann das Videokonferenzmodul 139 verwendet werden, Videokonferenzen zu initiieren, zu führen und zu beenden, zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das E-Mail Client Modul 140 verwendet werden, E-Mail zu erzeugen, senden, empfangen und verwalten. In Verbindung mit Bildverwaltungsmodul 144, macht es das E-Mail Modul 140 sehr leicht, E-Mails mit stehenden oder Videobildern, die mit Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Sofortmitteilungsmodul 141 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Sofortmitteilung korrespondieren, vorher eingegebene Zeichen modifizieren, eine entsprechende Sofortmitteilung zu übertragen (z. B. unter Verwendung eines Kurzmitteilungsdienstes (Short Message Service, SMS) oder Multimedia Mitteilungsdienst (Multimedia Message Service (MMS) Protokoll für telefonbasierte Sofortmitteilungen oder unter Verwendung von XMPP, SIMPLE oder IMPS für intemetbasierte Sofortmitteilungen), Sofortmitteilungen zu empfangen und empfangene Sofortmitteilungen zu betrachten. In einigen Ausführungsformen können übertragene und/oder empfangene Sofortmitteilungen Graphik, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie von einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden, aufweisen. Wie hierin benutzt, bezieht sich "Sofortmitteilungen" auf telefonbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS gesendet wurden) und intemetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS gesendet wurden).
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Bildverwaltungsmodul 144, und Browsingmodul 147 kann das Bloggingmodul 142 verwendet werden, Text, stehende Bilder, Video und/oder andere Graphik zu einem Blog (z. B. dem Blog des Benutzers) zu versenden.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische(n) Sensor(en) 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, und Bildverwaltungsmodul 144 kann das Kameramodul 143 verwendet werden, stehende Bilder oder Video (darunter einen Videostream) zu erfassen, und sie in Speicher 102 zu speichern, Charakteristiken eines stehenden Bildes oder Videos zu modifizieren oder ein stehendes Bild oder Video von Speicher 102 zu löschen.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Kameramodul 143 kann das Bildverwaltungsmodul 144 verwendet werden, stehende und/oder Videobilder zu arrangieren, modifizieren oder anderweitig zu manipulieren, zu labeln, löschen, anzeigen (z. B. in einer digitalen Diashow oder Album) und zu speichern.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, und Lautsprecher 111 kann das Videoabspielmodul 145 verwendet werden, Videos anzuzeigen, zu präsentieren oder anderweitig abzuspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen, verbundenen Anzeige über externen Anschluss 124).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, Lautsprecher 111, RF Schaltkreis 108 und Browsermodul 147, ermöglicht das Musikabspielmodul 146 dem Benutzer, aufgenommene Musik und andere Musikdateien, die in einem oder mehreren Dateiformaten, wie z. B. MP3 oder AAC Dateien, gespeichert sind, herunterzuladen und abzuspielen. In einigen Ausführungsformen kann die Vorrichtung 100 die Funktionalität eines MP3 Abspielgerätes, wie z. B. eines iPods (Markenzeichen der Apple Computer Inc.) aufweisen.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, und Texteingabemodul 134 kann das Browsermodul 147 verwendet werden, das Internet zu browsen, darunter suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon sowie Anhänge und andere Dateien, die mit Webseiten verbunden sind.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, E-Mail Modul 140, und Browsermodul 147 kann das Kalendermodul 148 benutzt werden, Kalender und Daten, die mit Kalendern zusammenhängen (z. B. Kalendereinträge, to do Listen, etc.) zu erzeugen, anzeigen, modifizieren und speichern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 sind die Widgetmodule 149 Minianwendungen, die heruntergeladen werden können und von einem Benutzer verwendet werden können (z. B. Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Wecker 149-4 und Wörterbuchwidget 149-5) oder von dem Benutzer erzeugt werden können (z. B. benutzererzeugtes Widget 149-6). In einigen Ausführungsformen beinhaltet ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript Datei. In einigen Ausführungsformen enthält ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabe modul 134 und Browsermodul 147 kann das Widget-Erzeugungsmodul 150 verwendet werden von einem Benutzer, um Widgets zu erzeugen (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Suchmodul 151 verwendet werden, um nach Text, Musik, Sound, Bilder, Video und/oder anderen Dateien in Speicher 102 zu suchen, die eine oder mehrere Suchkriterien erfüllen (z. B. ein oder mehrere benutzerspezifizierte Suchbegriffe).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Notizbuchmodul 153 verwendet werden, Notizen, to do Listen und ähnliches zu erzeugen und zu verwalten.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, GPS Modul 135 und Browsermodul 147 kann das Landkartenmodul 154 verwendet werden, Landkarten und Daten, die mit Landkarten zusammenhängen, zu empfangen, anzuzeigen, modifizieren und zu speichern (z. B. Fahrtrichtungen; Daten auf Speichern und andere Punkte von Interesse an oder in der Nähe einer bestimmten Position; und andere positionsbasierte Daten).
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Gruppe an Anweisungen zum Ausführen einer oder mehrerer oben beschriebener Funktionen. Diese Module (d. h. Gruppen an Anweisungen) brauchen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert zu sein und damit können verschiedene Untergruppen dieser Module kombiniert werden, oder anderweitig in verschiedenen Ausführungsformen neu geordnet werden. Zum Beispiel kann Videoabspielmodul 145 mit Musikabspielmodul 146 in ein einziges Modul (z. B. Video- und Musikabspielmodul 152, 1B) kombiniert werden. In einigen Ausführungsformen kann Speicher 102 eine Untergruppe der Module und oben identifizierten Datenstrukturen speichern. Weiterhin kann Speicher 102 zusätzliche Module oben nicht beschriebener Datenstrukturen speichern.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, in der Benutzung von einer vordefinierten Gruppe an Funktionen auf der Vorrichtung exklusiv durch den Berührungsbildschirm 112 und/oder ein Berührungsfeld ausgeführt wird. Durch Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als primäre Eingabe-/Steuervorrichtung zur Benutzung der Vorrichtung 100 kann die Anzahl physikalischer Eingabe-/Steuervorrichtung (wie z. B. Druckknöpfe, Wählscheiben und ähnliches) auf der Vorrichtung 100 reduziert werden.
  • Die vordefinierte Gruppe an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt werden kann, beinhaltet Navigieren zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Heim-, oder Ursprungsmenü von jeder Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt werden kann. In solchen Ausführungsformen kann das Berührungsfeld als ein "Menüknopf" bezeichnet werden. In einigen anderen Ausführungsformen kann der Menüknopf ein physikalischer Druckknopf oder eine andere physikalische Eingabe-/Steuervorrichtung anstelle eines Berührungsfeldes sein.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist, in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm kann eine oder mehrere Graphiken innerhalb der Benutzerschnittstelle (user interface, UI) 200 anzeigen. In dieser Ausführungsform sowie anderen unten beschriebenen, kann ein Benutzer eine oder mehrere der Graphiken durch Kontaktaufnahme oder Berühren der Graphiken wählen, z. B. mit einem oder mehreren Fingern 202 (in der Fig. nicht maßstäblich gezeichnet).
  • In einigen Ausführungsformen erfolgt die Wahl von einer oder mehreren Graphiken, wenn der Benutzer den Kontakt mit der einen oder mehreren Graphiken unterbricht. In einigen Ausführungsformen kann der Kontakt eine Geste beinhalten, wie z. B. ein oder mehrere Antippen, eine oder mehrere Streichbewegungen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, aufwärts und/oder abwärts), der mit der Vorrichtung 100 Kontakt aufgenommen hat. In einigen Ausführungsformen darf versehentlicher Kontakt mit einer Graphik die Graphik nicht auswählen. Zum Beispiel darf eine Streichgeste, die über ein Anwendungs-Icon streicht nicht die korrespondierende Anwendung auswählen, wenn die Geste, die zur Auswahl korrespondiert, ein Antippen ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere physikalische Knöpfe, wie z. B. "Heim-" oder Menüknopf 204 aufweisen. Wie vorhergehend beschrieben, kann der Menüknopf 204 verwendet werden, zu jeder Anwendung 136 aus einer Gruppe an Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ ist, in einigen Ausführungsformen, der Menüknopf als eine Softtaste in einer GUI im Berührungsbildschirm 112 implementiert.
  • In einigen Ausführungsformen weist die Vorrichtung einen Berührungsbildschirm 112, einen Menüknopf 204, einen Druckknopf 206 auf, um die Vorrichtung an/aus zu schalten und die Vorrichtung zu verriegeln, Lautstärkeanpassungsknopf(knöpfe) 208, einen Subscriber Identity Module (SIM) Karteneinschub 210, einen Sprechgarnituranschluss 212 und einen externen Andock-/Ladeanschluss 124. Der Druckknopf 206 kann verwendet werden, die Vorrichtung durch Herunterdrücken des Knopfes und Halten des Knopfes in dem heruntergedrückten Zustand für eine vordefinierte Zeitdauer an/auszuschalten; die Vorrichtung durch Herunterdrücken des Knopfes und Loslassen des Knopfes bevor die vordefinierte Zeitdauer abgelaufen ist, zu sperren; und/oder die Vorrichtung zu entsperren oder einen Entsperrungsprozess zu starten. In einer alternativen Ausführungsform kann die Vorrichtung 100 auch verbale Eingaben über das Mikrophon 113 zur Aktivierung oder Deaktivierung einiger Funktionen akzeptieren.
  • Die Aufmerksamkeit wird nun auf Ausführungsformen von Benutzerschnittstellen ("UI") und zugeordnete Prozesse gerichtet, die auf einer tragbaren Multifunktionsvorrichtung 100 implementiert werden können.
  • 3 stellt in Übereinstimmung mit einigen Ausführungsformen eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 300 die folgenden Elemente, oder eine Untergruppe oder eine Übergruppe davon:
    • • Entsperrbild 302, das mit einer Fingergeste bewegt wird, um die Vorrichtung zu entsperren;
    • • Pfeil 304 der einen visuellen Hinweis auf die Entsperrgeste bereitstellt;
    • • Kanal 306, der zusätzliche Hinweise auf die Entsperrgeste bereitstellt;
    • • Zeit 308;
    • • Tag 310;
    • • Datum 312; und
    • • Hintergrundbild 314.
  • In einigen Ausführungsformen erfasst die Vorrichtung Kontakt mit der berührungsempfindlichen Anzeige (z. B. ein Finger des Benutzers tritt auf oder in der Nähe des Entsperrbildes 302 in Kontakt) während die Vorrichtung in einem Benutzerschnittstellen-Gesperrtzustand ist. Die Vorrichtung bewegt das Entsperrbild 302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht zu einem Benutzerschnittstellen-Entsperrtzustand über, wenn der erfasste Kontakt zu einer vordefinierten Geste korrespondiert, wie z. B. Bewegen des Entsperrbildes über den Kanal 306. Andererseits behält die Vorrichtung den Benutzerschnittstellen-Gesperrtzustand bei, wenn der erfasste Kontakt nicht zu der vordefinierten Geste korrespondiert. Wie oben bemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entsperren, in folgenden U.S. Patent Anmeldung Nr. beschrieben: 11/322,549, "Unlocking A Device By Performing Gestures On An Unlock Image", eingereicht am 23. Dezember 2005, und Nr. 11/322,550, "Indication Of Progress Towards Satisfaction Of A User Input Condition", eingereicht am 23. Dezember 2005, die hiermit referenzierend eingebunden sind.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü an Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar. In einigen Ausführungsformen beinhaltet Benutzerschnittstelle 400A die folgenden Elemente, oder eine Untergruppe oder Übergruppe davon:
    • • Signalstärkeindikator(en) 402 für drahtlose Kommunikation(en), wie z. B. zellulare und Wi-Fi Signale;
    • • Zeit 404;
    • • Batteriestatusindikator 406;
    • • Ablage 408, mit Icons für häufig benutzte Anwendungen, wie z. B. eines oder mehrere der folgenden:
    • • Telefon 138, das einen Indikator 414 der Anzahl entgangener Anrufe oder Anrufbeantworternachrichten, beinhalten kann;
    • • E-Mail Client 140, der einen Indikator 410 der Anzahl ungelesener E-Mails beinhalten kann;
    • • Browser 147; und
    • • Musikabspielgerät 146; und
    • • Icons für andere Anwendungen, wie z. B. eines oder mehrere der folgenden:
    • • IM 141;
    • • Bildverwaltung 144;
    • • Kamera 143;
    • • Videoabspielgerät 145;
    • • Wetter 149-1;
    • • Wertpapiere 149-2;
    • • Blog 142;
    • • Kalender 148;
    • • Taschenrechner 149-3;
    • • Wecker 149-4;
    • • Wörterbuch 149-5;
    • • benutzererzeugtes Widget 149-6.
  • In einigen Ausführungsformen beinhalten Benutzerschnittstelle 400B die folgenden Elemente oder eine Untergruppe oder Übergruppe davon:
    • 402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414, 138, 140 und 147 wie oben beschrieben;
    • • Landkarte 154;
    • • Notizen 153;
    • • Einstellungen 412, die Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellen; und
    • • Video- und Musikabspielmodul 152 auch bezeichnet als iPod (Markenzeichen der Apple Computer, Inc.) Modul 152.
  • In einigen Ausführungsformen zeigen UI 400A oder 400B alle der verfügbaren Anwendungen 136 auf einem Bildschirm an, so dass es keinen Bedarf gibt, durch eine Liste an Anwendungen zu scrollen (z. B. mit Hilfe einer Scrollleiste). In einigen Ausführungsformen können die Icons, die zu den Anwendungen korrespondieren in der Größe abnehmen, wenn die Anzahl der Anwendungen zunimmt, so dass alle Anwendungen ohne Scrollen auf einem einzigen Bildschirm angezeigt werden können. In einigen Ausführungsformen, die alle Anwendungen auf einem Bildschirm und einen Menüknopf haben, wird es einem Benutzer ermöglicht auf jede gewünschte Anwendung mit höchstens zwei Eingaben, wie z. B. Aktivieren des Menüknopfes 204 und dann Aktivieren der gewünschten Anwendung (z. B. durch ein Antippen oder andere Fingergesten auf das Icon, das mit der Anwendung korrespondiert), zuzugreifen.
  • In einigen Ausführungsformen stellen UI 400A oder 400B integrierten Zugriff auf sowohl widget-basierte Anwendungen und nicht widget-basierte Anwendungen bereit. In einigen Ausführungsformen werden alle der Widgets, ob benutzererzeugt oder nicht, in UI 400A oder 400B angezeigt. In anderen Ausführungsformen kann ein Aktivieren des Icons für ein benutzererzeugtes Widget 149-6 zu einer anderen UI führen, die die benutzererzeugten Widgets oder Icons, die zu den benutzererzeugten Widgets korrespondieren, enthält.
  • In einigen Ausführungsformen kann ein Benutzer die Icons in UI 400A oder 400B neu ordnen, z. B. unter Verwendung eines Prozesses, der beschrieben ist in U.S. Patent Anmeldung Nr. 11/459,602, "Portable Electronic Device With Interface Reconfiguration Mode", eingereicht am 24. Juli 2006, die hierbei in ihrer Gesamtheit referenzierend eingebunden ist. Zum Beispiel kann ein Benutzer Anwendungs-Icons in und aus der Ablage 408 bewegen unter Verwendung von Fingergesten.
  • In einigen Ausführungsformen enthält UI 400A oder 400B eine Anzeige (nicht gezeigt), die eine aktualisierte Account-Verwendungsmetrik für einen Account, der mit der Verwendung der Vorrichtung (z. B. einen zellularen Telefonaccount) zusammenhängt, anzeigt, wie in U.S. Patent Anmeldung 11/322,552, "Account Information Display For Portable Communication Device", eingereicht am 23. Dezember 2005, beschrieben, welche hierbei referenzierend eingebunden ist.
  • Wie oben in dem Hintergrundabschnitt bemerkt, ist es für eine tragbare Vorrichtung mit einem Berührungsbildschirm eine Herausforderung darzustellen, wie ein 2-D Fingerkontaktbereich aus der Berührungsbildschirminformation in eine eindeutige 1-D Cursor-Position genau übersetzt wird.
  • Ein Fingerkontakt mit der Berührungsbildschirmanzeige (z. B. ein Fingertippen) ist ein Prozess, der mehrfache Aktionen aufweist, die beinhalten, dass sich der Finger der Anzeige nähert, der Finger in Kontakt mit der Anzeige ist, und der Finger die Anzeige verlässt. Während dieses Prozesses erhöht sich der Fingerkontaktbereich von 0 bis zu einem maximalen Kontaktbereich und reduziert sich dann auf Null. In einigen Ausführungsformen ist für einen stationären Fingerkontakt mit der Anzeige sein Fingerkontaktbereich während einer Zeitdauer, die dem stationären Kontakt entspricht, als der maximale Kontaktbereich des Fingers mit der Berührungsbildschirmanzeige definiert.
  • Die 5 und 6A bis 6L stellen beispielhafte Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einem Berührungsbildschirm in Übereinstimmung mit einigen Ausführungsformen dar.
  • Wie in der 6A gezeigt, zeigt die Berührungsbildschirmanzeige mehrfache Benutzerschnittstellenobjekte 5602 bis 5608 an. Beispielhafte Benutzerschnittstellenobjekte beinhalten ein Öffnen-Icon, ein Schließen-Icon, ein Lösch-Icon, ein Verlassen-Icon oder Softtasten-Icons. Einige dieser Icons können innerhalb eines kleinen Bereichs auf der Berührungsbildschirmanzeige eingesetzt werden, so dass sich ein Icon sehr nahe an einem anderen Icon befindet.
  • Wenn im Gegensatz zu dem herkömmlichen Mausklick ein Fingerkontakt mit der Berührungsbildschirmanzeige vorhanden ist, hat der Finger einen bestimmten Kontaktbereich (z. B. 5610 in 6A) auf der Berührungsbildschirmanzeige. In einigen Ausführungsformen muss eine Cursor-Position entsprechend dem Fingerkontaktbereich 5610 mit der Berührungsbildschirmanzeige bestimmt werden, bevor irgendein Benutzerschnittstellenobjekt aktiviert werden kann, um eine vorbestimmte Operation durchzuführen.
  • Nach dem Bestimmen eines Fingerkontaktbereichs (501) bestimmt die tragbare Vorrichtung eine mit dem Kontaktbereich 5610 (503) assoziierte erste Position. Wie unten erläutert, kann die erste Position die Cursor-Position entsprechend dem Fingerkontakt sein oder nicht. Jedoch wird die erste Position verwendet, um die Cursor-Position zu bestimmen. In einigen Ausführungsformen, wie in 6B gezeigt, ist die erste Position P1 der Schwerpunkt des Kontaktbereichs 5610.
  • In einigen weiteren Ausführungsformen (6H), wenn sich ein Finger in physikalischen Kontakt mit der Berührungsbildschirmanzeige befindet, muss der Finger die Anzeige mit dem Druck, der von einer Position zu einer anderen Position innerhalb des Kontaktbereichs variiert wird, drücken. Manchmal ist die Position P2, an welcher der Benutzer den maximalen Druck anwendet, vielleicht nicht der Schwerpunkt P1 des Kontaktbereichs, obgleich die maximale Druckposition P2 näher an dem Objekt sein kann, das der Benutzer gerne auswählen würde.
  • Wie in 6H gezeigt, wird der Kontaktbereich 5610 als elliptisch mit einer Hauptachse und einer Nebenachse senkrecht zu der Hauptachse angesehen. Es wird angenommen, dass es eine feste Distanz Δd' zwischen dem Schwerpunkt PI und dem Kontaktbereich 5610 und der entsprechenden maximalen Druckposition P2 gibt. In diesem Fall kann die erste Position der maximalen Druckposition P2 von P1 und Δd' bestimmt werden.
  • Die Cursor-Position P des Fingerkontakts wird bestimmt basierend auf einem oder mehreren Parametern (505), welche den Ort der ersten Position, d. h. P1 in 6B oder P2 in 6H, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren Benutzerschnittstellenobjekten in der Nähe der ersten Position, und in einigen Ausführungsformen eine oder mehrere Aktivierungsempfindlichkeitszahlen, die mit den Benutzerschnittstellenobjekten (z. B. W1 bis W4 in 6C oder 6I) assoziiert sind, beinhalten.
  • In einigen Ausführungsformen ist, wie in den 6C und 6I gezeigt, die Distanz zwischen der ersten Position (P1 in 6C oder P2 in 6I) und einem entsprechenden Benutzerschnittstellenobjekt (5602, 5604, 5606 oder 5608) die Distanz zwischen der ersten Position und einem Punkt auf dem Benutzerschnittstellenobjekt, welcher der ersten Position am nächsten ist.
  • In einigen weiteren Ausführungsformen ist, wie in den 6D und 6J gezeigt, die Distanz zwischen der ersten Position (P1 in 6D oder P2 in 6J) und einem Benutzerschnittstellenobjekt (5602, 5604, 5606 oder 5608) die Distanz zwischen der ersten Position und der Mitte des Benutzerschnittstellenobjekts.
  • In einigen Ausführungsformen ist der Versatz zwischen der Cursor-Position und der ersten Position (z. B. Δd in 6E und 6F) durch die folgende Formel gegeben:
    Figure 00360001
    in welcher:
    • – Δd → der Versatz zwischen der Cursor-Position P und der ersten Position P1 ist,
    • – Δd →i eine Versatzkomponente ist, die mit einem Benutzerschnittstellenobjekt I entlang der Richtung zwischen der ersten Position und dem Benutzerschnittstellenobjekt i assoziiert ist;
    • – Wi eine Aktivierungsempfindlichkeitszahl ist, die mit dem Benutzerschnittstellenobjekt i assoziiert ist,
    • – di eine Distanz zwischen der ersten Position und dem Benutzerschnittstellenobjekt i ist,
    • – reele Zahl (n eine z. B. 1) ist, und
    • – u →i ein Einheitsvektor entlang der Richtung von Δd →i ist.
  • Falls die bestimmte Cursor-Position P auf einem besonderen Benutzerschnittstellenobjekt (z. B. 5602 in 6E) bestimmt wird, wird das Benutzerschnittstellenobjekt aktiviert um eine vorbestimmte Operation wie z. B. ein Abspielen eines Musikstücks, Löschen einer E-Mail-Nachricht oder Eingeben eines Zeichens in ein Eingabefeld auszuführen.
  • In einigen Ausführungsformen weisen die Aktivierungsempfindlichkeitszahlen, die verschiedenen Benutzerschnittstellenobjekten zugewiesen sind, verschiedene Werte und Vorzeichen auf, abhängig von der Operation, die mit jedem Objekt assoziiert ist.
  • Falls zum Beispiel, wie in 6E gezeigt, die Operation, die mit dem Benutzerschnittstellenobjekt 5602 assoziiert wird, umkehrbar oder auf andere Weise nicht zerstörend (z. B. ist das Benutzerschnittstellenobjekt 5602 das Abspiel-Icon des Musik- und Video-Abspielmoduls 146) ist, wird eine Aktivierungsempfindlichkeitszahl W1' mit einem ersten Vorzeichen (z. B. „+") dem Objekt 5602 zugeordnet, so dass die bestimmte Cursor-Position P näher an das Objekt 5602 gezogen wird als die erste Position P1, wodurch das Objekt 5602 einfacher aktiviert werden kann. In diesem Zusammenhang ist „nicht zerstörend" definiert, um eine Aktion zu bedeuten, die keinen dauerhaften Informationsverlust bewirkt.
  • Falls im Gegensatz dazu, wie in der 6F gezeigt, die mit dem Benutzerschnittstellenobjekt 5602 assoziierte Operation nicht umkehrbar oder zerstörend für die Benutzerinformation ist (z. B. ist das Benutzerschnittstellenobjekt 5602 das Lösch-Icon des Mail-Moduls 140), wird eine Aktivierungsempfindlichkeitszahl W1'', die ein zweites Vorzeichen (z. B. „–") entgegengesetzt dem ersten Vorzeichen aufweist, dem Objekt 5602 zugeordnet, so dass die bestimmte Cursor-Position P weiter entfernt von dem Objekt 5602 sein kann als die erste Position P1, so dass das Objekt 5602 schwieriger zu aktivieren ist. Wenn somit ein Objekt, das mit der Aktivierungsempfindlichkeitszahl assoziiert ist, das zweite Vorzeichen aufweist, muss der Kontakt relativ genau über dem Objekt positioniert werden, um es zu aktivieren, wobei höhere Werte der Aktivierungsempfindlichkeitszahl zu höheren Graden an Präzision korrespondieren.
  • In einigen Ausführungsformen wird die Cursor-Position P bestimmt basierend auf der ersten Position, der Aktivierungsempfindlichkeitszahl, die mit einem Benutzerschnittstellenobjekt, das der ersten Position am nächsten ist, assoziiert ist, und der Distanz zwischen der ersten Position und dem Benutzerschnittstellenobjekt, das der ersten Position am nächsten ist. In diesen Ausführungsformen wird die Cursor-Position P nicht durch die Parameter beeinflusst, die mit anderen benachbarten Benutzerschnittstellenobjekten assoziiert sind. Beispielweise ist, wie in der 6K gezeigt, die erste Position P1 dem Benutzerschnittstellenobjekt 5602 am nächsten, welches eine assoziierte Aktivierungsempfindlichkeitszahl W1 aufweist. Die Distanz zwischen der ersten Position P1 und dem Objekt 5602 ist d1. Die zu bestimmende Cursor-Position wird nur durch diese Parameter beeinflusst und nicht durch andere benachbarte Benutzerschnittstellenobjekte 5604, 5606 oder 5608.
  • In einigen Ausführungsformen, wenn eines oder mehrere Benutzerschnittstellenobjekte innerhalb einer vordefinierten Distanz zu der ersten Position liegen, wird die Cursor-Position P bestimmt basierend auf der ersten Position, und den mit jedem Benutzerschnittstellenobjekt assoziierten Aktivierungsempfindlichkeitszahlen, die innerhalb der vordefinierten Distanz liegen, und der Distanz zwischen der ersten Position und jeder von jenen Benutzerschnittstellenobjekten. Alternativ wird in einigen Ausführungsformen, wenn eines oder mehrere Benutzerschnittstellenobjekte innerhalb des Kontaktbereichs des Benutzerfingerkontakts mit der Berührungsbildschirmanzeige liegen (oder innerhalb einer vordefinierten Distanz des Kontaktbereichs), die Cursor-Position P bestimmt basierend auf der ersten Position, und den Aktivierungsempfindlichkeitszahlen, die mit jedem Benutzerschnittstellenobjekt, das innerhalb des Kontaktbereichs (oder mit der vordefinierten Distanz des Kontaktbereichs) liegt, assoziiert ist, und der Distanz zwischen der ersten Position und jeder von jenen Benutzerschnittstellenobjekten.
  • In einigen Ausführungsformen ist, wie in 6L gezeigt, die Cursor-Position identisch zu der ersten Position, welche P1 in 6B oder P2 in 6H sein kann, falls die erste Position innerhalb eines besonderen Benutzerschnittstellenobjekts (z. B. 5604) auf der Anzeige ist. In diesem Fall besteht kein Bedarf, die Cursor-Position weiter von der ersten Position zu versetzen.
  • In einigen Ausführungsformen muss, wie in 6E gezeigt, ein Fingerkontakt nicht exakt auf einem Objekt auftreten, um das Objekt zu aktivieren. Das Benutzerschnittstellenobjekt wird eher aktiviert, solange die bestimmte Cursor-Position innerhalb des Benutzerschnittstellenobjekts liegt. In einigen Ausführungsformen wird ein Benutzerschnittstellenobjekt aktiviert, falls die bestimmte Cursor-Position innerhalb eines Benutzerschnittstellenobjekt-„Trefferbereichs" liegt. Der Trefferbereich eines Benutzerschnittstellenobjekts kann von identischer Größe sein, oder größer oder kleiner als das Benutzerschnittstellenobjekt selbst sein. Benutzerschnittstellenobjekte, die nicht umkehrbare oder zerstörerische Änderungen von Daten bewirken, werden typischerweise einen Trefferbereich aufweisen, der so groß wie oder kleiner als das Benutzerschnittstellenobjekt selbst ist. In einigen Ausführungsformen weisen mindestens einige Benutzerschnittstellenobjekte, die keine nicht-umkehrbaren oder zerstörerischen Änderungen von Daten verursachen, einen Trefferbereich auf, der größer als jene Benutzerschnittstellenobjekte ist. Für solche Objekte kann der Abschnitt des Trefferbereichs, der größer als das entsprechende Benutzerschnittstellenobjekt ist, als ein versteckter Trefferbereich bezeichnet werden.
  • In einigen Ausführungsformen sind zumindest einige der Benutzerschnittstellenobjekte, die in das Bestimmen der Cursor-Position in der obigen Formel eingebunden sind, auf der Berührungsbildschirmanzeige sichtbar.
  • In einigen Ausführungsformen sind die Aktivierungsempfindlichkeitszahlen, die mit den Benutzerschnittstellenobjekten (z. B. W1 bis W4) assoziiert sind, kontextabhängig in einem spezifischen Anwendungsmodul und ändern sich von einem Kontext zu einem anderen Kontext innerhalb des spezifischen Anwendungsmoduls. Beispielsweise kann ein Objekt eine erste Aktivierungsempfindlichkeitszahl aufweisen, die für eine Cursor-Position in einem ersten Augenblick (in einem ersten Kontext eines spezifischen Anwendungsmoduls) geeignet ist, jedoch eine zweite Aktivierungsempfindlichkeitszahl aufweisen, die weniger geeignet, oder sogar abstoßend (z. B. falls die zweite Aktivierungsempfindlichkeitszahl ein entgegengesetztes Vorzeichen aufweist) für die Cursor-Position in einem zweiten Augenblick (in einem zweiten Kontext des spezifischen Anwendungsmoduls) ist.
  • Die 6M bis 6O stellen ein beispielhaftes Verfahren zum dynamischen Anpassen von Aktivierungsempfindlichkeitszahlen dar, die mit Softtastaturtasten assoziiert sind, wenn in Übereinstimmung mit einigen Ausführungsformen ein Wort mit den Softtastatur-Tasten eingetippt wird. Die Benutzerschnittstelle beinhaltet ein Eingabefeld 5620 und eine Softtastatur 5640. Eine Benutzerauswahl von irgendeinem Tasten-Icon der Softtastatur 5640 gibt ein korrespondierendes vom Benutzer gewähltes Zeichen in das Eingabefeld 5620 ein. Wie in der 6M gezeigt, weisen alle der Tasten-Icons zu darstellenden Zwecken anfangs dieselbe Aktivierungsempfindlichkeitszahl 5 auf.
  • Die 6N bezeichnet die Aktivierungsempfindlichkeitszahlen, die mit verschiedenen Tasten-Icons assoziiert sind, nachdem zwei Zeichen „Go" in das Eingabefeld 5620 eingegeben wurden. Die Aktivierungsempfindlichkeitszahlen, die mit den Tasten-Icons assoziiert sind, sind in Übereinstimmung mit den zuvor eingegebenen Zeichen angepasst worden. Beispielsweise ändert sich die Aktivierungsempfindlichkeitszahl des Tasten-Icons „D" von 5 auf 10, da „God" ein geläufiges englisches Wort ist. Somit kann das Tasten-Icon „D" aktiviert sein, selbst wenn der nächste Fingerkontakt näher an dem Tasten-Icon „F" ist als an dem Tasten-Icon „D" selbst. Ähnlich werden die Aktivierungsempfindlichkeitszahlen, die mit Tasten-Icons „A" und „O" sind, auch vergrößert, da jede dieser Zeichenfolgen „Goa" und „Goo" zu einem oder mehreren zulässigen englischen Wörtern wie z. B. „Goal", „Good" oder „Goad" führt. Im Gegensatz dazu fällt die Aktivierungsempfindlichkeitszahl eines Tasten-Icons „K" auf 3, da die Zeichenfolge „Gok" nicht am Beginn irgendeines geläufigen englischen Wortes gefunden wird.
  • Die 6O bezeichnet die aktualisierten Aktivierungsempfindlichkeitszahlen, die mit verschiedenen Tasten-Icons assoziiert sind, nachdem ein anderes Zeichen „a" in das Eingabefeld 5620 eingegeben wurde. Vorausgesetzt, dass die Zeichenfolge „Goa" eingegeben wurde, kann der Benutzer das Wort „Goal" eintippen. Dementsprechend erhöht sich die Aktivierungsempfindlichkeitszahl, die mit dem Tasten-Icon „L" assoziiert ist, auf 9, wohingegen die Aktivierungsempfindlichkeitszahl, die mit dem Tasten-Icon „O" assoziiert ist, auf 2 fällt, weil die Zeichenfolge „Goao" nicht am Beginn irgendeines geläufigen englischen Wortes gefunden wird.
  • Zusammenfassend wird eine Cursor-Position für einen Fingerkontakt mit der Berührungsbildschirmanzeige zumindest teilweise angepasst, basierend auf den Aktivierungsempfindlichkeitszahlen (oder Gewichtungen), die Benutzerschnittstellenobjekten zugeordnet werden. Solche Cursor-Positionsanpassungen unterstützen beim Reduzieren der Chance auf fehlerhaftes Auswählen eines Benutzerschnittstellenobjekts.
  • Die obige Beschreibung wurde zum Zweck der Erklärung und der Bezugnahme auf spezielle Ausführungsformen beschrieben. Die darstellenden Diskussionen sind jedoch nicht beabsichtigt, ausführlich zu sein, oder die Erfindung auf die speziellen offenbarten Formen zu beschränken. Viele Modifikationen und Variationen sind angesichts obiger Lehren möglich. Die Ausführungsformen wurden gewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktischen Anwendungen bestens zu erklären, um dabei andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsformen mit verschiedenen Modifikationen, wie sie für die spezielle betrachtete Verwendung geeignet sind, bestens zu verwenden.
  • Zusammenfassung
  • Eine tragbare Vorrichtung mit einer Berührungsbildschirmanzeige detektiert einen Kontaktbereich eines Fingers mit der Berührungsbildschirmanzeige und bestimmt dann eine mit dem Kontaktbereich assoziierte erste Position. Die Cursor-Position des Fingerkontakts wird mindestens teilweise bestimmt basierend auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist. Falls die Cursor-Position in den versteckten Trefferbereich einer virtuellen Drucktaste auf der Berührungsbildschirmanzeige fällt, wird die tragbare Vorrichtung aktiviert, um die mit der virtuellen Drucktaste assoziierten Operationen durchzuführen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6323846 [0039]
    • - US 6570557 [0039]
    • - US 6677932 [0039]
    • - US 2002/0015024 A1 [0039]
    • - US 20050190059 [0047]
    • - US 20060017692 [0047]

Claims (23)

  1. Computerimplementiertes Verfahren, aufweisend: auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten, Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige; Bestimmen einer ersten Position, die mit dem Schwerpunkt des Kontaktbereichs korrespondiert; Bestimmen einer zweiten Position, die von der ersten Position versetzt ist, basierend auf der Form des Kontaktbereichs; und Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der zweiten Position, einer oder mehreren Distanzen zwischen der zweiten Position und einem oder mehreren der Benutzerschnittstellenobjekte, und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  2. Computerimplementiertes Verfahren, aufweisend: auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten, Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige, Bestimmen einer ersten Position, die mit dem Kontaktbereich assoziiert ist; und Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  3. Verfahren nach Anspruch 2, wobei die Mehrzahl von Benutzerschnittstellenobjekten ein oder mehrere Öffnen-Icons, ein oder mehrere Schließen-Icons, ein oder mehrere Lösch-Icons, ein oder mehrere Verlassen-Icons oder Softtastaturtasten-Icons enthält.
  4. Verfahren nach Anspruch 2, wobei, für einen stationären Kontakt eines Fingers mit der Anzeige, der detektierte Kontaktbereich mit dem maximalen Kontaktbereich des Fingers mit der Anzeige korrespondiert während einer mit dem stationären Kontakt korrespondierenden Zeitdauer.
  5. Verfahren nach Anspruch 2, wobei die erste Position der Schwerpunkt des Kontaktbereichs ist.
  6. Verfahren nach Anspruch 2, wobei der Kontaktbereich elliptisch mit einer Hauptachse ist und die erste Position von dem Schwerpunkt des Kontaktbereichs entlang der Hauptachse versetzt ist.
  7. Verfahren nach Anspruch 2, wobei ein mit einer Aktivierungsempfindlichkeitszahl assoziierten Benutzerschnittstellenobjekt sich einfacher aktivieren lässt, falls die Aktivierungsempfindlichkeitszahl ein erstes Vorzeichen aufweist, und sich schwerer aktivieren lässt, falls die Aktivierungsempfindlichkeitszahl ein zweites Vorzeichen aufweist, das dem ersten Vorzeichen entgegengesetzt ist.
  8. Verfahren nach Anspruch 2, wobei die Distanz zwischen der ersten Position und einem Benutzerschnittstellenobjekt die Distanz zwischen der ersten Position und einem Punkt auf dem Benutzerschnittstellenobjekt ist, welcher der ersten Position am nächsten ist.
  9. Verfahren nach Anspruch 2, wobei die Distanz zwischen der ersten Position und einem Benutzerschnittstellenobjekt die Distanz zwischen der ersten Position und der Mitte des Benutzerschnittstellenobjekts ist.
  10. Verfahren nach Anspruch 2, wobei das Bestimmen der Cursor-Position basiert auf: der ersten Position, der Aktivierungsempfindlichkeitszahl, die mit einem Benutzerschnittstellenobjekt assoziiert ist, das der ersten Position am nächsten ist, und der Distanz zwischen der ersten Position und dem Benutzerschnittstellenobjekt, das der ersten Position am nächsten ist.
  11. Verfahren nach Anspruch 2, wobei die Cursor-Position von der ersten Position durch einen Betrag versetzt ist, der durch die Formel
    Figure 00450001
    gegeben ist, in der: Δd → der Versatz ist, Δd →i eine Versatzkomponente ist, die mit einem Benutzerschnittstellenobjekt i assoziiert ist, wobei Δd →i sich entlang der Richtung zwischen der ersten Position und dem Benutzerschnittstellenobjekt i befindet, Wi eine Aktivierungsempfindlichkeitszahl ist, die mit dem Benutzerschnittstellenobjekt i assoziiert ist, di eine Distanz zwischen der ersten Position und dem Benutzerschnittstellenobjekt i ist, n eine reelle Zahl ist, und u →i ein Einheitsvektor entlang der Richtung von Δd →i ist.
  12. Verfahren nach Anspruch 11, wobei die reelle Zahl n gleich 1 ist.
  13. Verfahren nach Anspruch 2, wobei die Cursor-Position die erste Position ist, falls sich die erste Position innerhalb einer aus der Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige befindet.
  14. Verfahren nach Anspruch 2, weiterhin aufweisend ein Aktivieren eines Benutzerschnittstellenobjekts auf der Cursor-Position.
  15. Verfahren nach Anspruch 2, wobei die Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige sichtbar ist.
  16. Verfahren nach Anspruch 2, wobei die Aktivierungsempfindlichkeitszahlen in einer Anwendung kontext-abhängig sind.
  17. Verfahren nach Anspruch 2, wobei die mit Softtastaturen-Tasten assoziierten Aktivierungsempfindlichkeitszahlen sich ändern, wenn ein Wort mit den Softtastatur-Tasten eingetippt wird.
  18. Grafische Benutzerschnittstelle auf einer tragbaren elektronischen Vorrichtung mit einer Berührungsbildschirmanzeige, aufweisend: einen Cursor, und eine Mehrzahl von Benutzerschnittstellenobjekten, wobei die Position des Cursors auf der Berührungsbildschirmanzeige mindestens teilweise basiert auf: einer ersten Position, die mit einem Kontaktbereich eines Fingers mit der Berührungsbildschirmanzeige assoziiert ist; einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  19. Grafische Benutzerschnittstelle nach Anspruch 18, wobei die erste Position mit dem Schwerpunkt des Kontaktbereichs korrespondiert.
  20. Grafische Benutzerschnittstelle nach Anspruch 18, wobei die erste Position mit einer Position korrespondiert, die von dem Schwerpunkt des Kontaktbereichs, der auf der Form des Kontaktbereichs basiert, versetzt ist.
  21. Tragbare elektronische Vorrichtung, aufweisend: eine Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten; einen oder mehrere Prozessoren; Speicher; und ein Programm, wobei das Programm in dem Speicher gespeichert und eingerichtet ist, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das Programm enthält: Anweisungen zum Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige; Anweisungen zum Bestimmen einer mit denn Kontaktbereich assoziierten ersten Position; und Anweisungen zum Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  22. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und ein Computerprogrammmechanismus, die darin eingebettet sind, wobei der Computerprogrammmechanismus Anweisungen aufweist, die, wenn sie durch eine tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten ausgeführt werden, die Vorrichtung veranlassen zum: Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige; Bestimmen einer mit dem Kontaktbereich assoziierten ersten Position; und Bestimmen einer Cursor-Position, die mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
  23. Tragbare elektronische Vorrichtung mit einer Berührungsbildschirmanzeige mit einer Mehrzahl von Benutzerschnittstellenobjekten, aufweisend: Mittel zum Detektieren eines Kontaktbereichs eines Fingers mit der Berührungsbildschirmanzeige; Mittel zum Bestimmen einer mit dem Kontaktbereich assoziierten ersten Position; und Mittel zum Bestimmen einer Cursor-Position, das mindestens teilweise basiert auf: der ersten Position, einer oder mehreren Distanzen zwischen der ersten Position und einem oder mehreren der Benutzerschnittstellenobjekte; und einer oder mehreren Aktivierungsempfindlichkeitszahlen, von denen jede mit einem entsprechenden Benutzerschnittstellenobjekt aus der Mehrzahl von Benutzerschnittstellenobjekten assoziiert ist.
DE112007002088T 2006-09-06 2007-09-05 Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige Ceased DE112007002088T5 (de)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US82476906P 2006-09-06 2006-09-06
US60/824,769 2006-09-06
US87925307P 2007-01-07 2007-01-07
US60/879,253 2007-01-07
US87946907P 2007-01-08 2007-01-08
US60/879,469 2007-01-08
US94671607P 2007-06-27 2007-06-27
US60/946,716 2007-06-27
US93799307P 2007-06-29 2007-06-29
US60/937,993 2007-06-29
US11/850,015 2007-09-04
US11/850,015 US7843427B2 (en) 2006-09-06 2007-09-04 Methods for determining a cursor position from a finger contact with a touch screen display
PCT/US2007/077645 WO2008030880A1 (en) 2006-09-06 2007-09-05 Methods for determining a cursor position from a finger contact with a touch screen display

Publications (1)

Publication Number Publication Date
DE112007002088T5 true DE112007002088T5 (de) 2009-07-02

Family

ID=38823525

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112007002088T Ceased DE112007002088T5 (de) 2006-09-06 2007-09-05 Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
DE602007014071T Active DE602007014071D1 (de) 2006-09-06 2007-09-05 Verfahren zur bestimmung einer cursorposition aus einem fingerkontakt mit einem berührungsschirm-display

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE602007014071T Active DE602007014071D1 (de) 2006-09-06 2007-09-05 Verfahren zur bestimmung einer cursorposition aus einem fingerkontakt mit einem berührungsschirm-display

Country Status (11)

Country Link
US (2) US7843427B2 (de)
EP (2) EP2336869B1 (de)
JP (2) JP4934725B2 (de)
KR (2) KR101085732B1 (de)
AT (1) ATE506648T1 (de)
AU (1) AU2007292384B2 (de)
CA (1) CA2662137C (de)
DE (2) DE112007002088T5 (de)
HK (1) HK1131671A1 (de)
IL (1) IL197385A (de)
WO (1) WO2008030880A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823686B2 (en) 2010-05-27 2014-09-02 Omikron Data Quality Gmbh Operating device for a user interface

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US9766738B1 (en) 2006-08-23 2017-09-19 Cypress Semiconductor Corporation Position and usage based prioritization for capacitance sense interface
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080196945A1 (en) * 2007-02-21 2008-08-21 Jason Konstas Preventing unintentional activation of a sensor element of a sensing device
US20080238886A1 (en) * 2007-03-29 2008-10-02 Sony Ericsson Mobile Communications Ab Method for providing tactile feedback for touch-based input device
US8400409B1 (en) * 2007-07-10 2013-03-19 Cypress Semiconductor Corporation User interface devices, methods, and computer readable media for sensing movement of an actuator across a surface of a window
WO2009008161A1 (ja) * 2007-07-11 2009-01-15 Access Co., Ltd. 携帯情報端末
KR20090024541A (ko) * 2007-09-04 2009-03-09 삼성전자주식회사 하이퍼링크 선택 방법 및 이를 이용하는 이동통신 단말기
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US8661340B2 (en) * 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
US8130206B2 (en) * 2007-10-09 2012-03-06 Nokia Corporation Apparatus, method, computer program and user interface for enabling a touch sensitive display
KR20090038540A (ko) * 2007-10-16 2009-04-21 주식회사 현대오토넷 화면 상의 영상위치 변경 장치 및 방법, 그리고 그를이용한 네비게이션 시스템
US8136402B2 (en) * 2007-11-28 2012-03-20 International Business Machines Corporation Accelerometer module for use with a touch sensitive device
EP2225628B1 (de) * 2007-12-20 2018-05-30 Myriad France Verfahren und system zur bewegung eines eingabezeigers und auswahl von objekten auf einem berührungsbildschirm anhand eines fingerzeigers
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8031176B1 (en) 2008-01-22 2011-10-04 Cypress Semiconductor Corporation Optical navigation system using a single-package motion sensor
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8174502B2 (en) 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US8289283B2 (en) * 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8908973B2 (en) * 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US20090235281A1 (en) * 2008-03-12 2009-09-17 Inventec Corporation Handheld electronic device, input device and method thereof, and display device and method thereof
EP2101250B1 (de) * 2008-03-14 2014-06-11 BlackBerry Limited Zeichenauswahl auf einer Vorrichtung mittels versetzter Kontaktzone
TW200941307A (en) * 2008-03-24 2009-10-01 Acer Inc Extended cursor generating method and device
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
KR100950797B1 (ko) 2008-05-30 2010-04-02 포항공과대학교 산학협력단 가상 키보드가 적용된 기기의 문자 입력 방법
US9355090B2 (en) 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
AR071981A1 (es) * 2008-06-02 2010-07-28 Spx Corp Ventana de multiples pantallas de presentacion con entrada para desplazamiento circular
FR2933211B1 (fr) * 2008-06-26 2010-11-26 Airbus France Dispositif d'interaction avec un systeme d'affichage, notamment pour un systeme d'affichage avionique
US20100039214A1 (en) * 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Cellphone display time-out based on skin contact
US8913991B2 (en) 2008-08-15 2014-12-16 At&T Intellectual Property I, L.P. User identification in cell phones based on skin contact
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US20100134418A1 (en) * 2008-12-02 2010-06-03 Microsoft Corporation Opposite facing device keypad
US9197738B2 (en) * 2008-12-04 2015-11-24 Microsoft Technology Licensing, Llc Providing selected data through a locked display
US20100146437A1 (en) * 2008-12-04 2010-06-10 Microsoft Corporation Glanceable animated notifications on a locked device
US8294047B2 (en) * 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
US8583421B2 (en) * 2009-03-06 2013-11-12 Motorola Mobility Llc Method and apparatus for psychomotor and psycholinguistic prediction on touch based device
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8285499B2 (en) * 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8564541B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Zhuyin input interface on a device
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US20100251161A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Virtual keyboard with staggered keys
US9189472B2 (en) * 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
GB0905457D0 (en) 2009-03-30 2009-05-13 Touchtype Ltd System and method for inputting text into electronic devices
US10191654B2 (en) 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
GB0917753D0 (en) 2009-10-09 2009-11-25 Touchtype Ltd System and method for inputting text into electronic devices
US9424246B2 (en) 2009-03-30 2016-08-23 Touchtype Ltd. System and method for inputting text into electronic devices
US20100251105A1 (en) * 2009-03-31 2010-09-30 Lenovo (Singapore) Pte, Ltd. Method, apparatus, and system for modifying substitution costs
US9024886B2 (en) * 2009-04-14 2015-05-05 Japan Display Inc. Touch-panel device
EP2431782A1 (de) * 2009-06-16 2012-03-21 Intel Corporation Kameraanwendungen in einer tragbaren Vorrichtung
KR101364881B1 (ko) * 2009-06-16 2014-02-19 인텔 코오퍼레이션 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드
KR101071165B1 (ko) * 2009-08-04 2011-10-10 이성호 터치입력 인식방법 및 장치
TWI407339B (zh) * 2009-08-06 2013-09-01 Htc Corp 追蹤觸控面板上碰觸輸入之移動軌跡的方法與電腦程式產品及其相關電子裝置
US8434153B2 (en) 2009-08-24 2013-04-30 Microsoft Corporation Application display on a locked device
US8799775B2 (en) * 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for displaying emphasis animations for an electronic document in a presentation mode
WO2011044664A1 (en) * 2009-10-14 2011-04-21 Research In Motion Limited Touch-input determination based on relative distances of contact
WO2011045805A1 (en) * 2009-10-16 2011-04-21 Hewlett-Packard Development Company, L.P. Gesture processing
KR101630754B1 (ko) * 2009-10-16 2016-06-24 삼성전자주식회사 디스플레이 장치 및 인터페이스 방법
CN102081487B (zh) * 2009-11-28 2013-04-10 比亚迪股份有限公司 一种电阻式触摸屏的检测方法及装置
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
CN102117143B (zh) * 2009-12-31 2015-05-13 深圳迈瑞生物医疗电子股份有限公司 一种触摸屏响应方法及装置
EP2341419A1 (de) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Gerät und Verfahren zur Steuerung eines Geräts
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US8588806B2 (en) 2010-02-26 2013-11-19 Thl Holding Company, Llc Wireless device and methods for use in a paging network
US8884871B2 (en) * 2010-02-26 2014-11-11 Thl Holding Company, Llc Adjunct device for use with a handheld wireless communication device as a screen pointer
US9262041B2 (en) * 2010-03-16 2016-02-16 Nokia Technologies Oy Methods and apparatus for determining a selection region
KR20110110940A (ko) * 2010-04-02 2011-10-10 삼성전자주식회사 휴대용 단말기의 터치 입력 장치 및 방법
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US10216408B2 (en) * 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP4865063B2 (ja) 2010-06-30 2012-02-01 株式会社東芝 情報処理装置、情報処理方法およびプログラム
KR101701932B1 (ko) * 2010-07-22 2017-02-13 삼성전자 주식회사 입력 디바이스와 이의 제어 방법
US9063593B2 (en) * 2010-07-29 2015-06-23 Qualcomm Incorporated Device and method of controlling a computer using centroids
IN2013CN01308A (de) * 2010-08-16 2015-07-31 Koninkl Philips Electronics Nv
JP5510185B2 (ja) * 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
CN102402369B (zh) * 2010-09-13 2017-11-24 联想(北京)有限公司 电子设备及其操作提示标识移动方法
DE102010046893A1 (de) 2010-09-29 2012-03-29 E:Cue Control Gmbh Bedienvorrichtung zur Ansteuerung einer mehrfarbigen Lichtquelle und Beleuchtungsvorrichtung
CN101984392B (zh) * 2010-11-05 2012-02-29 华为终端有限公司 一种模拟硬按键的操作方法及触摸屏终端
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
US9870093B2 (en) 2010-11-23 2018-01-16 Ge Aviation Systems Llc System and method for improving touch screen display use under vibration and turbulence
US9268479B2 (en) 2011-01-21 2016-02-23 Dell Products, Lp Motion sensor-enhanced touch screen
JP5651494B2 (ja) 2011-02-09 2015-01-14 日立マクセル株式会社 情報処理装置
FR2971864B1 (fr) * 2011-02-22 2015-06-26 Peugeot Citroen Automobiles Sa Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle
JP5095021B2 (ja) 2011-04-04 2012-12-12 シャープ株式会社 表示装置、情報処理システム、プログラム及びテレビジョン受信機
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9727124B2 (en) 2011-04-19 2017-08-08 Apple Inc. Power saving application update in a portable electronic device
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
US20140123051A1 (en) * 2011-05-30 2014-05-01 Li Ni Graphic object selection by way of directional swipe gestures
US20120324391A1 (en) * 2011-06-16 2012-12-20 Microsoft Corporation Predictive word completion
WO2012173640A1 (en) 2011-06-16 2012-12-20 Cypress Semiconductor Corporaton An optical navigation module with capacitive sensor
GB2492789B (en) * 2011-07-12 2018-01-03 Denso Corp Displays
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US10140011B2 (en) * 2011-08-12 2018-11-27 Microsoft Technology Licensing, Llc Touch intelligent targeting
TWI474252B (zh) * 2011-10-06 2015-02-21 Intelligent GUI touch method and system
TW201316240A (zh) * 2011-10-06 2013-04-16 Rich Ip Technology Inc 利用圖形用戶介面影像之觸碰處理方法及系統
US20130125066A1 (en) * 2011-11-14 2013-05-16 Microsoft Corporation Adaptive Area Cursor
US8896553B1 (en) 2011-11-30 2014-11-25 Cypress Semiconductor Corporation Hybrid sensor module
CH705918A2 (de) * 2011-12-19 2013-06-28 Ralf Trachte Feld-Analysen für flexible Computer-Eingabe.
TWI493438B (zh) * 2012-01-09 2015-07-21 Amtran Technology Co Ltd 觸控方法
JP2013161208A (ja) * 2012-02-03 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
US9001058B2 (en) 2012-03-05 2015-04-07 International Business Machines Corporation Computer action detection
JP5962085B2 (ja) * 2012-03-15 2016-08-03 ソニー株式会社 表示制御装置、その制御方法およびプログラム
US9235324B2 (en) * 2012-05-04 2016-01-12 Google Inc. Touch interpretation for displayed elements
US9001059B2 (en) * 2012-06-08 2015-04-07 Adobe Systems Incorporated Method and apparatus for choosing an intended target element from an imprecise touch on a touch screen display
US9348501B2 (en) 2012-06-14 2016-05-24 Microsoft Technology Licensing, Llc Touch modes
US20130342468A1 (en) * 2012-06-20 2013-12-26 Chimei Innolux Corporation Method for determining touch location on a touch panel and touch panel module
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
US9323452B2 (en) 2012-09-24 2016-04-26 Google Inc. System and method for processing touch input
JP6153710B2 (ja) 2012-09-28 2017-06-28 株式会社Pfu 帳票入出力装置、帳票入出力方法、および、プログラム
US9285880B2 (en) * 2012-12-26 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Touch panel device and method of controlling a touch panel device
US9652589B2 (en) * 2012-12-27 2017-05-16 General Electric Company Systems and methods for using a touch-sensitive display unit to analyze a medical image
KR101713784B1 (ko) * 2013-01-07 2017-03-08 삼성전자주식회사 전자 장치 및 그 제어 방법
CN104133618B (zh) * 2013-05-02 2018-02-02 腾讯科技(深圳)有限公司 进行终端设备推荐页面展示的方法及系统
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US20140375576A1 (en) * 2013-06-24 2014-12-25 Oracle International Corporation Facilitating touch screen users to select elements in a densely populated display
JP6028861B2 (ja) * 2013-06-28 2016-11-24 富士通株式会社 情報処理装置、入力制御プログラム、および入力制御方法
JP2015041845A (ja) * 2013-08-21 2015-03-02 カシオ計算機株式会社 文字入力装置及びプログラム
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9652148B2 (en) * 2014-01-06 2017-05-16 Sap Se Soft keyboard with keypress markers
JP2015141140A (ja) * 2014-01-29 2015-08-03 株式会社ミツトヨ 遠隔操作可能な測定機及び測定システム
US9983731B2 (en) * 2014-02-21 2018-05-29 Qualcomm Incorporated System and method for reducing shadow effects in touch systems
JP6608579B2 (ja) 2014-04-03 2019-11-20 株式会社ミツトヨ 測定器
US20170039076A1 (en) * 2014-04-30 2017-02-09 Empire Technology Development Llc Adjusting tap position on touch screen
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
US10025427B2 (en) * 2014-06-27 2018-07-17 Microsoft Technology Licensing, Llc Probabilistic touch sensing
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
US9628966B2 (en) * 2014-08-19 2017-04-18 Xiaomi Inc. Method and device for sending message
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036414A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
US10671275B2 (en) 2014-09-04 2020-06-02 Apple Inc. User interfaces for improving single-handed operation of devices
KR101542862B1 (ko) 2014-09-16 2015-08-07 국방과학연구소 인체공학적 터치스크린 키 인식방법
KR101599891B1 (ko) * 2014-09-19 2016-03-04 삼성전자주식회사 초음파 진단장치, 방법 및 컴퓨터 판독 가능한 저장매체
RU2711140C2 (ru) 2014-12-18 2020-01-15 Конинклейке Филипс Н.В. Редактирование медицинских изображений
EP3238008A4 (de) * 2014-12-22 2018-12-26 Intel Corporation Virtuelle mehrfachberührungsmaus
JP6324923B2 (ja) * 2015-04-24 2018-05-16 株式会社ニフコ 車両用収納装置
GB2538733A (en) * 2015-05-26 2016-11-30 Forbidden Tech Plc Control system for media manipulation
JP5906345B1 (ja) * 2015-08-05 2016-04-20 株式会社Cygames 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
GB201610984D0 (en) 2016-06-23 2016-08-10 Microsoft Technology Licensing Llc Suppression of input images
CN106354358A (zh) * 2016-08-20 2017-01-25 汪念鸿 一种光标位置的确定方法及移动终端
US10068551B1 (en) 2017-05-01 2018-09-04 Microsoft Technology Licensing, Llc Localized high brightness mode
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
CN109739399B (zh) * 2018-11-23 2021-08-20 努比亚技术有限公司 一种图标选择控制方法、终端及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
JPH04160474A (ja) * 1990-10-23 1992-06-03 Fujitsu Ltd キーワード入力方式
US5963671A (en) * 1991-11-27 1999-10-05 International Business Machines Corporation Enhancement of soft keyboard operations using trigram prediction
US5757358A (en) 1992-03-31 1998-05-26 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for enhancing computer-user selection of computer-displayed objects through dynamic selection area and constant visual feedback
US6938220B1 (en) * 1992-10-21 2005-08-30 Sharp Kabushiki Kaisha Information processing apparatus
DE4406668C2 (de) * 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
EP0703525B1 (de) * 1994-09-22 2001-12-05 Aisin Aw Co., Ltd. Berührungsanzeige für ein Informationseingabesystem
US5748512A (en) * 1995-02-28 1998-05-05 Microsoft Corporation Adjusting keyboard
US5805165A (en) 1995-08-31 1998-09-08 Microsoft Corporation Method of selecting a displayed control item
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JP3784031B2 (ja) * 1996-03-18 2006-06-07 富士通株式会社 表示画面上での選択操作に反応する領域を拡大する反応領域拡大装置および方法
JPH10275046A (ja) * 1997-03-31 1998-10-13 Toshiba Corp 単語入力装置及び方法
JP3744116B2 (ja) * 1997-04-08 2006-02-08 松下電器産業株式会社 表示入力装置
JPH10307673A (ja) 1997-05-09 1998-11-17 Canon Inc 座標入力装置及びその制御方法
US6049326A (en) * 1997-05-12 2000-04-11 Siemens Information And Communication Networks, Inc. System and method for dual browser modes
US6104384A (en) 1997-09-12 2000-08-15 Ericsson, Inc. Image based keyboard for a small computing device
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US6104317A (en) * 1998-02-27 2000-08-15 Motorola, Inc. Data entry device and method
JPH11312053A (ja) * 1998-04-30 1999-11-09 Toyota Motor Corp 画面タッチ式入力装置
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
JP2000115829A (ja) 1998-10-09 2000-04-21 Nec Corp 移動体通信システムにおける基地局の順次接続通信方式
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6643824B1 (en) * 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
JP2000322169A (ja) * 1999-04-30 2000-11-24 Internatl Business Mach Corp <Ibm> グラフィカル・ユーザ・インターフェイスにおけるホットスポット選択方法
US6411283B1 (en) * 1999-05-20 2002-06-25 Micron Technology, Inc. Computer touch screen adapted to facilitate selection of features at edge of screen
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
EP1192716B1 (de) * 1999-05-27 2009-09-23 Tegic Communications, Inc. Tastatursystem mit automatischer korrektur
GB2352154B (en) * 1999-07-16 2003-08-27 Ibm Automatic target enlargement for simplified selection
TW486657B (en) * 2000-10-26 2002-05-11 Animeta Systems Inc Browser interface operation device and its browsing method
JP2002132447A (ja) * 2000-10-27 2002-05-10 Alpine Electronics Inc タッチパネル入力装置
JP2003005913A (ja) * 2001-06-18 2003-01-10 Tokai Rika Co Ltd タッチ操作位置検出装置
FI116591B (fi) 2001-06-29 2005-12-30 Nokia Corp Menetelmä ja laite toiminnon toteuttamiseksi
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
AU2002360079A1 (en) * 2001-12-21 2003-07-09 Ralf Trachte Flexible computer input
DE10201195B4 (de) * 2002-01-14 2006-10-12 Völckers, Oliver Verfahren zur Texteingabe durch Auswahl von Buchstaben mittels eines Cursors und Einrichtung zur Durchführung des Verfahrens
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
US7151530B2 (en) * 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
AU2003288689A1 (en) 2002-11-29 2004-06-23 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
US7176905B2 (en) * 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
JP4526235B2 (ja) 2003-03-17 2010-08-18 シャープ株式会社 タッチパネル入力装置及びタッチパネル入力制御方法
US20040183833A1 (en) * 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
JP2004341813A (ja) 2003-05-15 2004-12-02 Casio Comput Co Ltd 入力装置表示制御方法及び入力装置
US20050190970A1 (en) * 2004-02-27 2005-09-01 Research In Motion Limited Text input system for a mobile electronic device and methods thereof
EP2254027B1 (de) 2004-02-27 2018-11-07 BlackBerry Limited Texteingabesystem sowie -verfahren für ein elektronisches Mobilgerät
US20060007174A1 (en) * 2004-07-06 2006-01-12 Chung-Yi Shen Touch control method for a drag gesture and control module thereof
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
EP1792314A1 (de) 2004-08-23 2007-06-06 Sherpa Technologies, LLC Selektive anzeige von thematischen informationen in video
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
JP4446310B2 (ja) * 2005-11-09 2010-04-07 シャープ株式会社 タッチ入力装置および表示装置
US20070247446A1 (en) 2006-04-25 2007-10-25 Timothy James Orsley Linear positioning input device
JP2007299198A (ja) * 2006-04-28 2007-11-15 Toyota Motor Corp 入力装置、入力制御方法及び入力制御プログラム。
CN110870230B (zh) 2017-05-10 2022-06-28 株式会社Ntt都科摩 用户终端以及无线通信方法
CN110956911B (zh) 2018-09-27 2021-10-01 合肥鑫晟光电科技有限公司 阵列基板及其检测方法、显示面板

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8823686B2 (en) 2010-05-27 2014-09-02 Omikron Data Quality Gmbh Operating device for a user interface

Also Published As

Publication number Publication date
US8013839B2 (en) 2011-09-06
JP2012113735A (ja) 2012-06-14
JP2010503125A (ja) 2010-01-28
US7843427B2 (en) 2010-11-30
JP4934725B2 (ja) 2012-05-16
KR101085732B1 (ko) 2011-11-21
EP2067094A1 (de) 2009-06-10
CA2662137C (en) 2015-11-24
CA2662137A1 (en) 2008-03-13
IL197385A (en) 2016-12-29
IL197385A0 (en) 2009-12-24
ATE506648T1 (de) 2011-05-15
KR20090066316A (ko) 2009-06-23
DE602007014071D1 (de) 2011-06-01
EP2336869A1 (de) 2011-06-22
EP2336869B1 (de) 2014-02-12
JP5277328B2 (ja) 2013-08-28
US20080094356A1 (en) 2008-04-24
WO2008030880A1 (en) 2008-03-13
EP2067094B1 (de) 2011-04-20
AU2007292384A1 (en) 2008-03-13
KR20090057304A (ko) 2009-06-04
US20110074677A1 (en) 2011-03-31
HK1131671A1 (en) 2010-01-29
AU2007292384B2 (en) 2011-12-01

Similar Documents

Publication Publication Date Title
US11461002B2 (en) List scrolling and document translation, scaling, and rotation on a touch-screen display
DE112007002088T5 (de) Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
DE112007002090T5 (de) Voicemail-Manager für tragbare Multifunktionsvorrichtung
DE112007002107T5 (de) Tragbare elektronische Vorrichtung, Verfahren und graphische Benutzerschnittstelle zum Anzeigen strukturierter elektronischer Dokumente
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
AU2015201905A1 (en) Scaling documents on a touch-screen display

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final