DE4406668C2 - Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts - Google Patents

Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts

Info

Publication number
DE4406668C2
DE4406668C2 DE4406668A DE4406668A DE4406668C2 DE 4406668 C2 DE4406668 C2 DE 4406668C2 DE 4406668 A DE4406668 A DE 4406668A DE 4406668 A DE4406668 A DE 4406668A DE 4406668 C2 DE4406668 C2 DE 4406668C2
Authority
DE
Germany
Prior art keywords
touch
active
extended
display area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4406668A
Other languages
English (en)
Other versions
DE4406668A1 (de
Inventor
Marc Davidson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agilent Technologies Inc
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Publication of DE4406668A1 publication Critical patent/DE4406668A1/de
Application granted granted Critical
Publication of DE4406668C2 publication Critical patent/DE4406668C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving

Description

Diese Erfindung bezieht sich auf Anzeigegeräte mit berüh­ rungsempfindlichen Eingabeschnittstellen. Insbesondere schafft diese Erfindung erweiterte Berührungszonen für jedes aktive Berührungsfeld, im folgenden auch als aktive Steue­ rungstaste bezeichnet, auf einem Anzeigegerät mit berührungs­ empfindlicher Eingabeschnittstelle derart, daß eine größere Fläche berührt werden kann, um irgendeine aktive Steuerungs­ taste auszuwählen. Die Fläche jeder erweiterten Berührungs­ zone wird abhängig von dem Vorhandensein und dem Ort anderer aktiver Steuerungstasten anpassungsfähig definiert.
Berührungsempfindliche Anzeigegeräte wurden entwickelt, um eine Anwenderschnittstelle mit verschiedenen Arten von Sy­ stemen zu schaffen. Berührungsempfindliche Eingabeschnitt­ stellen wurden z. B. für Berechnungs- und Datenverarbeitungs­ systeme vorgesehen, als auch für verschiedene Arten von di­ agnostischen und Test-Geräten. Berührungsempfindliche Schnittstellen ermöglichen einem Anwender, unter verschie­ denen Steuerungstasten, die auf einem Anzeigegerät darge­ stellt sind, auszuwählen. Der Anwender wählt eine erwünschte Steuerungstaste durch Berühren des Anzeigefeldes in einer Berührungszone, die der erwünschten Steuerungstaste ent­ spricht. Die Berührungszone für jede Steuerungstaste auf dem Anzeigefeld entspricht im wesentlichen der Fläche auf dem Anzeigefeld, auf der die Steuerungstaste angezeigt ist. Nachdem es oft wünschenswert ist, viele Steuerungstasten auf einem Anzeigefeld gleichzeitig anzuzeigen, ist die Anzeige­ fläche für jede Steuerungstaste oft recht klein. Als ein Er­ gebnis wird bei vielen Systemen mit berührungsempfindlicher Anwenderschnittstelle ein Problem angetroffen. Wenn der An­ wender das Anzeigefeld nicht innerhalb der kleinen Anzeige­ fläche für die erwünschte Steuerungstaste berührt, wird die erwünschte Steuerungstaste nicht ausgewählt.
Ein weiteres Problem wird bei Systemen mit berührungsemp­ findlicher Anwenderschnittstelle angetroffen, wenn die An­ zeigefläche der Steuerungstaste in bezug auf die Größe eines Fühlers, mit dem der Anwender das Anzeigefeld berühren muß, um eine erwünschte Steuerungstaste auszuwählen, klein ist. Bei vielen Systemen mit berührungsempfindlicher Anwender­ schnittstelle dient der Finger des Anwenders als der Fühler und die Größe der durchschnittlichen Fingerspitze ist in be­ zug auf die Anzeigefläche, die verwendet wird, um die Steu­ erungstasten anzuzeigen, oft groß. Deshalb leiden Systeme mit berührungsempfindlicher Anwenderschnittstelle, die die Berührungszone für jede Steuerungstaste auf ihre entsprech­ enden Anzeigefläche beschränken, an einem Problem, das darin besteht, daß sie häufig "Fehl-Treffer" erfahren, wobei das System, durch die Ungenauigkeit der Plazierung des Fingers des Anwenders, eine Steuerungstaste auswählt, die sich von der, die der Anwender wünscht auszuwählen, unterscheidet.
Bei Systemen mit berührungsempfindlicher Anwenderschnitt­ stelle, die die Anzeigefläche verwenden, um die Berührungs­ zone für jede Steuerungstaste zu definieren, kann die Häuf­ igkeit von "Fehl-Treffern" durch Vergrößern der Anzeigeflä­ che für jede Steuerungstaste auf dem Anzeigefeld reduziert werden. Es ist jedoch wünschenswert, die Anzeigefläche für jede Steuerungstaste auf dem Anzeigefeld zu minimieren, weil, wie oben erwähnt, viele Systeme, die berührungsem­ pfindliche Eingabeschnittstellen verwenden, erfordern, daß eine große Anzahl von Steuerungstasten auf dem Anzeigefeld gleichzeitig angezeigt werden. Wenn die Anzeigefläche der Steuerungstaste vergrößert ist, wird die Anzahl der Steu­ erungstasten, die gleichzeitig angezeigt werden können, re­ duziert.
Die US 5,189,732 betrifft eine berührungsempfindliche Einga­ beanordnung. Diese umfaßt eine Speichereinheit, die eine Gruppe von Strukturdaten und eine Gruppe von Koordinatenda­ ten speichert. Auf einem Abschnitt eines Anzeigebildschirms eines Anzeigegeräts ist eine Anzahl von numerischen Berei­ chen angezeigt. Jedem numerischen Bereich sind zwei Sätze von X, Y-Koordinaten zugeordnet, die in dem Speicher gespei­ chert sind. Diese Koordinaten bestimmen den wirksamen Be­ reich oder die Fläche einer "Taste" auf dem berührungsemp­ findlichen Gerät. Der wirksame Bereich der Berührungsfläche, die einer Tastenfläche entspricht, ist in alle Richtungen größer ist als die entsprechende numerische Fläche, die auf der Anzeige dargestellt ist, wobei die Größe des wirksamen Bereichs fest vorgegeben ist.
Die EP 0324306 A2 beschreibt ein Berührungsbildschirmsystem. Auf einer Anzeige sind Bereiche definiert, die durch einen Anwender durch Berührung ausgewählt werden können. Diese Bereiche sind von nicht-sichtbaren, fest vorgegebenen Bändern umgeben, die eine vorbestimmte Breite aufweisen. Ein Anwen­ der, der eines der Bänder berührt, obwohl er glaubt, den zu­ geordneten Betätigungsbereich zu berühren, wird tatsächlich das beabsichtigte Ziel berühren.
Die JP 63-155223 A betrifft ein Gerät zur Eingabe von Koor­ dinatenwerten, die durch Berührung eines Computers erfaßt wurden. Dieses Gerät umfaßt einen Speicherteil, in dem Koor­ dinatenwerte für das entsprechende Bedienfeld und Koordina­ tenwerte für einen entsprechenden Blindbereich gespeichert sind. Beim Berühren eines berührungsempfindlichen Anzeige­ geräts werden die Koordinatenwerte in dem Speicher mit den erfaßten Koordinaten verglichen, so daß festgestellt werden kann, ob die erfaßte Position innerhalb des Berührungsfeldes oder innerhalb des festgelegten Blindbereichs ist.
Die DE 40 07 216 A1 betrifft eine Arbeitsbefehlvorrichtung mit einer Detektorvorrichtung, die derart angeordnet ist, daß sie dem Schirm eines Anzeigebildschirms entspricht, um zu erfassen, für welche Position am Schirm ein Eingangsbefehl vorliegt. Die Form eines Ansprechbereichs, der einem einzelnen Arbeitsbefehl entspricht, kann nach Maßgabe der Anzahl von Arbeitsbefehlen geändert werden, die gleichzeitig angezeigt werden.
Es ist die Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Betreiben eines berührungsempfind­ lichen Anzeigegeräts zu schaffen, bei dem eine große Anzahl von Berührungsfeldern auf dem Anzeigegerät gleichzeitig angezeigt werden kann, wobei gleichzeitig die Häufigkeit von "Fehl-Treffern" reduziert ist.
Diese Aufgabe wird durch ein Verfahren zum Betreiben ein berührungsempfindlichen Anzeigegeräts nach Patentanspruch 1 und durch eine Vorrichtung zur Durchführung des Verfahrens gemäß Patentanspruch 5 gelöst.
Die vorliegende Erfindung schafft ein Verfahren und eine Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts. Das Anzeigegerät schließt eine oder mehrere Anzeigeflächen von aktiven Berührungsfeldern ein, von denen jedes eine jeweilige aktive Steuerungsfunktion anzeigt. Jede aktive Steuerungsfunktion ist zur Auswahl durch einen An­ wender verfügbar. Der Anwender wählt eine erwünschte aktive Steuerungsfunktion durch Berühren des berührungsempfindlichen Anzeigegeräts an einem Ort aus, der einer Anzeigefläche entspricht, die für das aktive Berührungsfeld, das die erwünschte aktive Steuerungsfunktion anzeigt, definiert ist.
In Übereinstimmung mit einem dargestellten Ausführungsbei­ spiel der Erfindung sind erweiterte Berührungszonen für jedes aktive Berührungsfeld definiert, wobei die erweiterte Be­ rührungszone für jedes aktive Berührungsfeld eine Fläche hat, die größer ist als die entsprechende Anzeigefläche für das Berührungsfeld. Die Abmessungen und die Form der erwei­ terten Berührungszone, die für jedes aktive Berührungsfeld definiert ist, sind abhängig von dem Vorhandensein und dem Ort von anderen aktiven Berührungsfeldern auf dem berüh­ rungsempfindlichen Anzeigegerät anpassungsfähig definiert. Folglich werden die Abmessungen und die Form jeder erwei­ terten Berührungszone automatisch verändert, um ein Überlap­ pen mit anderen erweiterten Berührungszonen zu vermeiden, wenn andere aktive Berührungsfelder in der Nähe angeordnet sind. Wenn der Anwender das Anzeigegerät berührt, wird eine Feststellung getroffen, ob eine erweiterte Berührungszone für irgendein aktives Berührungsfeld berührt wurde, und wenn dies der Fall war, wird die aktive Steuerungsfunktion, die durch das aktive Berührungsfeld angezeigt ist, das der er­ weiterten Berührungszone entspricht, die durch den Anwender berührt wurde, ausgewählt. Wenn eine erweiterte Berührungs­ zone für irgendein aktives Berührungsfeld nicht berührt wurde, ist eine Anzeige vorgesehen, daß keine aktive Steue­ rungsfunktion ausgewählt wurde.
Bei einem weiteren dargestellten Ausführungsbeispiel der Er­ findung werden erweiterte Berührungszonen für jedes aktive Berührungsfeld definiert, und die Grenze jeder erweiterten Berührungszone ist durch eine Totzonenentfernung von der Grenze jeder anderen erweiterten Berührungszone derart beab­ standet, daß Totzonen zwischen erweiterten Berührungszonen benachbarter aktiver Berührungsfelder definiert sind.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. Es zeigen:
Fig. 1 ein Anzeigegerät mit berührungsempfindlicher Ein­ gabeschnittstelle, das zwei nicht-ausgewählte ak­ tive Steuerungen hat;
Fig. 2 das Anzeigegerät mit berührungsempfindlicher Einga­ beschnittstelle aus Fig. 1 nach der Auswahl einer der aktiven Steuerungstaste;
Fig. 3(a)-3(c) die Art, auf die sich die erweiterten Be­ rührungszonen, die für ein aktives Berührungsfeld erzeugt wurden, abhängig von dem Ort und der Nähe von anderen Berührungsfeldern auf dem Anzeigefeld verändern;
Fig. 4 ein Ausführungsbeispiel der Vorrichtung gemäß der vorliegenden Erfindung;
Fig. 5 ein Flußdiagramm, das die primären Schritte des Verfahrens gemäß der vorliegenden Erfindung zeigt;
Fig. 6-8 ein Flußdiagramm der Schritte des Verfahrens ge­ mäß der vorliegenden Erfindung; und
Fig. 9(a)-9(e) drei benachbarte aktive Berührungsfelder und die Art, auf die Totzonen zwischen jedem Paar der drei aktiven Berührungsfelder definiert sind.
Wie oben angemerkt, bezieht sich die vorliegende Erfindung auf ein Verfahren und eine Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts. Die vorliegende Er­ findung kann mit irgendeiner Art einer Berührungsbild­ schirm-Anwenderschnittstelle verwendet werden, einschl. sol­ cher, die "weiche" Steuerungen haben. Weiche Steuerungen sind als Steuerungen definiert, die sich abhängig von dem Betriebsmodus des Systems, mit dem die Anwenderschnittstelle gekoppelt ist, verändern. Ledig­ lich die Berührungsfelder bzw. Steuerungstasten, die für den derzeitigen Betriebsmodus des Systems relevant sind, sind auf dem Anzeigefeld angezeigt. Wann immer sich der Betriebs­ modus des Systems ändert, wird das Anzeigefeld derart aktu­ alisiert, daß es lediglich die Steuerungstasten anzeigt, die für den neuen Betriebsmodus relevant sind. Die Steuerungsta­ sten sind weich, weil keine bestimmte Steuerungstaste konti­ nuierlich auf dem Anzeigefeld angezeigt ist, und sich die Steuerungstaste, die durch eine gegebenen Anzeigefläche an­ gezeigt ist, mit dem Betriebsmodus des Systems verändert. Zusätzlich verändert sich die Anzeigefläche, die verwendet wird, um irgendeine gegebene Steuerungstaste anzuzeigen, ab­ hängig von dem Betriebsmodus des Systems.
Wenn weiche Steuerungen verwendet werden, wird jede Steue­ rungstaste zu irgendeinem bestimmten Zeitpunkt entweder als aktiv oder als inaktiv definiert. Die aktiven Steuerungs­ tasten sind diejenigen, die auf dem Anzeigefeld angezeigt sind und deshalb zur Auswahl durch den Anwender verfügbar sind. Die inaktiven Steuerungstasten sind die restlichen Steuerungstasten, die für den derzeitigen Betriebsmodus des Systems nicht relevant sind und deshalb auf dem Anzeigefeld nicht angezeigt sind und nicht zur Auswahl durch einen An­ wender verfügbar sind.
Fig. 1-2 stellen ein Beispiel von weichen Steuerungen dar, die auf einem Anzeigefeld 10 eine Anwenderschnittstelle eines Berührungsbildschirms angezeigt sind. In Fig. 1 arbei­ tet das System, mit dem die Anwenderschnittstelle gekoppelt ist, in einem Modus, in dem zwei Berührungsfelder oder Steuerungstasten 1 und 2 aktiv sind. Obwohl beide Steue­ rungstasten 1 und 2 aktiv sind, wurde keine von diesen durch den Anwender ausgewählt. Weil keine Steuerungstaste ausge­ wählt wurde, ist jede mit dem Text ihres Namens, der auf dem Anzeigefeld beleuchtet ist, angezeigt. Die gestrichelten Li­ nien 5 bzw. 6 zeigen die Anzeigeflächen für die Steuerungs­ tasten für die Steuerungstasten 1 und 2 an. Die gestrichel­ ten Linien 5 und 6 sind in Fig. 1 lediglich aus dem Grund der Erklärung gezeigt und sind auf dem Anzeigefeld 10 nicht tatsächlich dargestellt. Deshalb ist die Anzeigefläche für die Steuerungstaste, die der Anwender berühren kann, um irgendeine nicht-ausgewählte Steuerungstaste auszuwählen, auf dem Anzeigefeld nicht skizziert.
Fig. 2 zeigt den Zustand des Anzeigegerätes 10, nachdem der Anwender die Steuerungstaste 1 durch Berühren des Anzeige­ gerätes 10 an einem Ort, der innerhalb der Anzeigefläche für die Steuerungstaste für Steuerungstaste 1 fällt, ausgewählt hat. Wie in Fig. 2 gezeigt, wird, wenn die Steuerungstaste 1 ausgewählt ist, das Anzeigefeld auf zwei Arten verändert. Zuerst erscheinen die zusätzlichen Steuerungstasten 3 und 4 auf dem Anzeigefeld, weil diese Steuerungstasten für den neuen Betriebsmodus, in dem das System als ein Ergebnis der Auswahl der Steuerungstaste 1 durch den Anwender eintritt, relevant sind. Als zweites wird die Beleuchtung der Anzeige­ fläche der Steuerungstaste für die Steuerungstaste 1 derart invertiert, daß die Abschnitte der Anzeigefläche für die Steuerungstaste, die keinen Text einschließen, beleuchtet sind und die Abschnitte der Anzeigefläche der Steuerungs­ taste, die Text anzeigen, nicht beleuchtet sind.
Ein Ziel der vorliegenden Erfindung ist es, erweiterte Be­ rührungszonen für jede aktive Steuerungstaste zu definieren, die größer sind als die Anzeigefläche für die Steuerungs­ taste, derart, daß es für den Anwender nicht erforderlich ist, das Anzeigefeld präzise innerhalb der Anzeigefläche der erwünschten Steuerungstaste zu berühren, um die erwünschte Steuerungstaste auszuwählen. Eine erweiterte Berührungszone für eine gegebene Steuerungstaste definiert eine Fläche, die, wenn durch den Anwender berührt, bewirkt, daß diese Steuerungstaste ausgewählt wird. Wenn erweiterte Berührungs­ zonen für jede aktive Steuerungstaste definiert sind, wird eine höhere Erfolgsrate für Berührungen des Anzeigefeldes erreicht, weil der Anwender häufiger das Anzeigefeld inner­ halb der erweiterten Berührungszone für die erwünschte ak­ tive Steuerungstaste berührt, wodurch die erwünschte Steu­ erungstaste erfolgreich ausgewählt wird.
Obwohl es wünschenswert ist, erweiterte Berührungszonen für jede aktive Steuerungstaste zu definieren, gibt es eine Be­ schränkung, wie groß die erweiterten Berührungszonen sein können. Wenn die erweiterten Berührungszonen für die aktiven Steuerungstasten zu groß sind, dann können sich die erwei­ terten Berührungszonen für zwei aktive Steuerungstasten überlappen. Die erweiterten Berührungszonen für zwei aktive Steuerungstasten dürfen sich aber nicht überlappen, weil, wenn der Anwender einen Ort innerhalb der erweiterten Berüh­ rungszonen der zwei aktiven Steuerungstasten berührt, das System nicht fähig wäre, zu bestimmen, welche Steuerungsta­ ste ausgewählt wurde.
Wie aus dem Vorangegangenen gesehen werden kann, hängt der Betrag, um den die Berührungszone für jede aktive Steuerung erweitert werden kann, von dem Vorhandensein und der Nähe von anderen aktiven Steuerungstasten auf dem Anzeigefeld ab. Das Verfahren bzw. die Vorrichtung der vorliegenden Erfin­ dung, wie es vollständiger unten beschrieben wird, beachtet die Auslegung des Anzeigefeldes bei der Bestimmung der Flä­ che der erweiterten Berührungszone, die für jede aktive Steuerungstaste definiert ist. Für eine aktive Steuerungsta­ ste, die von irgendwelchen anderen aktiven Steuerungstasten weit entfernt angeordnet ist, definiert das anpassungsfähige Berührungserkennungssystem eine erweiterte Berührungszonen­ fläche, die größer als die Flächen der erweiterten Berüh­ rungszonen ist, die für aktive Steuerungstasten definiert sind, die benachbart zu anderen aktiven Steuerungstasten angeordnet sind. Für irgendeine gegebene aktive Steuerungs­ taste wird sich das Vorhandensein und der Ort von benach­ barten aktiven Steuerungstasten über die Zeit verändern, wenn sich der Betriebsmodus des Systems ändert. Das Verfah­ ren bzw. die Vorrichtung der vorliegenden Erfindung beachten diese Änderungen der Auslegung des Anzeigefeldes und passen die Fläche der erweiterten Berührungszone, die für jede ak­ tive Steuerungstaste definiert ist, an. Deshalb ist die Größe und die Form der erweiterten Berührungszone, die für irgendeine aktive Steuerungstaste definiert ist, nicht vor­ bestimmt und ist basierend auf der Auslegung des Anzeigefel­ des zu dem Zeitpunkt, zu dem das Anzeigeberührungsfeld be­ rührt wird, definiert.
Fig. 3(a)-3(c) stellen die Art dar, auf die das Verfahren bzw. die Vorrichtung der vorliegenden Erfindung den Betrag verändert, um den eine Berührungszone für ein aktives Berüh­ rungsfeld, nachfolgend als aktive Steuerungstaste bezeich­ net, basierend auf ihrer Nähe zu anderen aktiven Steuerungs­ tasten erweitert wird. In Fig. 3(a) ist eine einzelne aktive Steuerungstaste 13 gezeigt, wobei die Steuerungstaste eine Anzeigefläche 12 hat. Eine erweiterte Berührungszone 14, die für die aktive Steuerungstaste 13 definiert ist, ist als ge­ strichelte Linie gezeigt. Die Grenze der erweiterten Berüh­ rungszone 14 ist von der Anzeigefläche 12 um einen vorbe­ stimmten Betrag r in jede Richtung erweitert. Nachdem es keine anderen aktiven Steuerungstasten benachbart zur Steue­ rungstaste 13 gibt, muß die Grenze der erweiterten Berüh­ rungszone 14 nicht um einen Betrag kleiner als der vorbe­ stimmte Betrag r in irgendeiner Richtung von der Anzeigeflä­ che 12 beabstandet sein, weil sie sich nicht mit der erwei­ terten Berührungszone irgendeiner anderen aktiven Steu­ erungstaste überlappen wird.
Obwohl die Grenze der erweiterten Berührungszone für die Steuerungstaste 13 in Fig. 3(a) als von der Anzeigefläche 12 um den gleichen vorbestimmten Betrag r in jeder Richtung be­ abstandet dargestellt ist, wird darauf hingewiesen, daß die erweiterte Berührungszone ebenfalls so definiert sein kann, daß ihre Grenze von der Anzeigefläche lediglich in ausge­ wählte Richtungen beabstandet ist. Zusätzlich wird darauf hingewiesen, daß die Grenze der erweiterten Berührungszone nicht um denselben Betrag in jede Richtung von der Anzeige­ fläche beabstandet sein muß. Die Grenze für die erweiterte Berührungszone kann alternativ von der Anzeigefläche durch Veränderung der Betrage in verschiedenen Richtungen beab­ standet sein.
Fig. 3(b) stellt zwei benachbarte Steuerungstasten 17 und 19 und ihre jeweiligen Anzeigeflächen 16 und 18 dar. Die erwei­ terten Berührungszonen 20 und 22 sind jeweils für die ak­ tiven Steuerungstasten 17 und 19 definiert und als gestri­ chelte Linien gezeigt. Die Grenze der erweiterten Berüh­ rungszone 20 ist von der Anzeigefläche 16 um die vorbe­ stimmte Entfernung r in jeder Richtung beabstandet, außer der Richtung, die der Steuerungstaste 19 gegenüberliegt. Auf ähnliche Weise ist die Grenze der erweiterten Berührungszone 22 von der Anzeigefläche 18 um die vorbestimmte Entfernung r in jeder Richtung beabstandet, außer der Richtung, die der Steuerungstaste 17 gegenüberliegt. Wenn die Grenzen für die erweiterten Berührungszonen für die Steuerungstasten 17 und 19 von ihren jeweiligen Anzeigeflächen um die vorbestimmte Entfernung r in die Richtungen, die einander gegenüberlie­ gen, beabstandet wären, würden sich die erweiterten Berüh­ rungszonen 20 und 22 überlappen. Wie oben angemerkt, dürfen sich die Berührungszonen von zwei aktiven Steuerungstasten nicht überlappen, weil, wenn der Anwender das Anzeigefeld in der Fläche der Überlappung berührt, das System nicht fest­ stellen kann, welche der zwei aktiven Steuerungstasten aus­ gewählt wurde.
Um zu verhindern, daß sich die erweiterten Berührungszonen 20 und 22 der benachbarten Steuerungstasten 17 und 19 über­ lappen, definiert das Verfahren bzw. die Vorrichtung der vorliegenden Erfindung die Abmessung jeder erweiterten Be­ rührungszone in Richtung eines benachbarten aktiven Berüh­ rungsfeldes ausgehend von ihrer jeweiligen Anzeigefläche als kleiner als die vorbestimmte Entfernung r. Wie in Fig. 3(b) gezeigt ist, sind in der Richtung, die der benachbarten ak­ tiven Steuerungstaste gegenüberliegt, die Grenzen der erwei­ terten Berührungszonen 20 und 22 jeweils von den Anzeigeflä­ chen 16 und 18 um eine vorbestimmte Entfernung x beabstan­ det, die kleiner ist als die vorbestimmte Entfernung r, um die sie von den Anzeigeflächen 16 und 18 in jede andere Richtung beabstandet sind.
Bei einem Ausführungsbeispiel des Verfahrens bzw. der Vor­ richtung der vorliegenden Erfindung sind zwischen den erwei­ terten Berührungszonen von benachbarten aktiven Steuerungs­ tasten Totzonen hergestellt. Wie in Fig. 3(b) gezeigt ist, ist die Entfernung x, um die die Grenzen der erweiterten Be­ rührungszonen 20 und 22 jeweils von den Anzeigeflächen 16 und 18 beabstandet sind, derart ausgewählt, daß die erwei­ terten Berührungszonen 20 und 22 voneinander um eine vorbe­ stimmte Entfernung d beabstandet sind. Der Abstand zwischen den erweiterten Berührungszonen 20 und 22 definiert eine Totzone 24 zwischen den Steuerungstasten 17 und 19. Eine Totzone ist als eine Fläche definiert, die, wenn sie durch den Anwender berührt wird, keine aktive Steuerungstaste aus­ wählen wird. Das Ziel der Totzone ist es, das Vorhandensein von Flächen auf dem Anzeigefeld zu verhindern, auf denen sich die Bestimmung der ausgewählten Steuerungstaste auf­ grund einer Änderung des Berührungsortes lediglich um einige wenige Pixel verändert. Wenn Totzonen zwischen den erweiter­ ten Berührungszonen von benachbarten Steuerungstasten herge­ stellt sind, sind die Flächen für die erweiterten Berüh­ rungszonen für diese Steuerungstasten nicht maximiert. Es wurde jedoch festgestellt, daß jeglicher Nachteil, der durch das Versagen, einige Berührungen zu erkennen, die innerhalb größerer erweiterter Berührungszonen für benachbarte Steue­ rungstasten fallen, erlitten wird, durch Vermeiden von Fehl-Treffern ausgeglichen wird, die auftreten könnten, wo­ durch eine Steuerungstaste, die nicht der durch den Anwender beabsichtigten entspricht, ausgewählt wird, wenn der Anwen­ der einen Ort in der Nähe einer Grenze zwischen den erwei­ terten Berührungszonen von zwei benachbarten aktiven Steue­ rungstasten berührt.
Obwohl die erweiterten Berührungszonen 20 und 22 in Fig. 3(b) als um die gleiche Entfernung x in die Richtungen, die einander gegenüberliegen, von den Anzeigeflächen 16 und 18 beabstandet dargestellt sind, wird darauf hingewiesen, daß die Entfernung, um die zwei benachbarte erweiterte Berüh­ rungszonen von ihren jeweiligen Anzeigeflächen in der Rich­ tung, die benachbarten Steuerungstasten gegenüberliegt, be­ abstandet sind, nicht identisch sein muß. Zusätzlich, wie in Fig. 3(c) gesehen werden kann, kann sich der Betrag, um den die erweiterte Berührungszone für irgendeine einzelne Steue­ rungstaste von ihrer entsprechenden Anzeigefläche in der Richtung zu benachbarten aktiven Steuerungstasten beabstan­ det ist, verändern und muß nicht gleichmäßig sein. Dies ist z. B. durch die erweiterte Berührungszone 34 gezeigt, die von ihrer entsprechenden Anzeigefläche 28 um den Betrag x an ihrer unteren rechten Ecke beabstandet ist, und ihre Entfer­ nung von der Anzeigefläche 28 nach und nach erhöht, bis sie um den Betrag r an ihrer unteren linken Ecke beabstandet ist. Die Schlüsselbeziehung, die beibehalten wird, ist die Errichtung einer Totzone mit der gewählten Entfernung zwi­ schen den erweiterten Berührungszonen von benachbarten akti­ ven Steuerungstasten.
Es wird ferner darauf hingewiesen, daß, obwohl Totzonen zwi­ schen den erweiterten Berührungszonen der benachbarten akti­ ven Steuerungstasten bei einem Ausführungsbeispiel der Er­ findung definiert sind, das Verfahren bzw. die Vorrichtung der vorliegenden Erfindung ebenfalls ohne Definition von Totzonen zwischen erweiterten Berührungszonen ausgeführt werden kann. Wenn keine Totzonen zwischen den erweiterten Berührungszonen definiert sind, ist die vorbestimmte Ent­ fernung d (in Fig. 3(b) gezeigt), um die die erweiterten Berührungszonen von benachbarten aktiven Steuerungstasten beabstandet sind, auf Null eingestellt. Als ein Ergebnis berühren sich die erweiterten Berührungszonen von benachbar­ ten aktiven Steuerungstasten, überlappen sich aber nicht.
Fig. 3(c) stellt die Anzeigeflächen 26, 28 und 30 für drei aktive Steuerungstasten 27, 29 und 31 dar, die benachbart zueinander angeordnet sind. Erweiterte Berührungszonen 32, 34 und 36 sind jeweils für die aktiven Steuerungstasten 27, 29 und 31 definiert und als gestrichelte Linien gezeigt. Die Grenze der erweiterten Berührungszone für jede Steuerungsta­ ste ist von ihrer jeweiligen Anzeigefläche um die vorbe­ stimmte Entfernung r in jede Richtung beabstandet, außer in diejenigen Richtungen, die den benachbarten aktiven Steue­ rungstasten gegenüberliegen. In den Richtungen, die benach­ barten aktiven Steuerungstasten gegenüberliegen, ist die Grenze jeder erweiterten Berührungszone von ihrer jeweiligen Anzeigefläche um eine variable Entfernung beabstandet, die kleiner ist als die Entfernung r, wodurch sichergestellt wird, daß die erweiterten Berührungszonen sich nicht über­ lappen. Totzonen 38, 40 und 42, die eine Breite haben, die gleich der vorbestimmten Entfernung d ist, sind jeweils zwi­ schen den erweiterten Berührungszonenpaaren (32, 34), (32, 36) und (34, 36) definiert.
Wie aus den Fig. 3(a)-3(c) offensichtlich ist, definiert das Verfahren bzw. die Vorrichtung der vorliegenden Erfin­ dung eine erweiterte Berührungszone für die Steuerungstaste, die viel größer ist als die Anzeigefläche für die Steue­ rungstaste, wenn eine aktive Steuerungstaste auf dem An­ zeigefeld derart angeordnet ist, daß sie zu keiner anderen aktiven Steuerungstaste benachbart ist. Als ein Ergebnis muß der Anwender lediglich das Anzeigefeld an dem allgemeinen Ort der Anzeigefläche berühren, um die Steuerungstaste aus­ zuwählen. Wenn eine aktive Steuerungstaste auf dem Anzeige­ feld benachbart zu einer oder mehreren anderen Steuerungsta­ sten angeordnet ist, definiert das Verfahren bzw. die Vor­ richtung der vorliegenden Erfindung eine erweiterte Berüh­ rungszone für diese Steuerungstaste, die so groß wie die er­ weiterten Berührungszonen für alleinstehende Steuerungsta­ sten ist, außer daß sie in Richtungen, die benachbarten Steuerungstasten gegenüberliegen, reduziert ist, um sicher­ zustellen, daß sich zwei erweiterte Berührungszonen nicht überlappen.
Obwohl die erweiterte Berührungszone für Steuerungstasten, die benachbart zu einer oder mehreren anderen aktiven Steue­ rungstasten angeordnet sind, kleiner ist als für Steuerungs­ tasten, die auf dem Anzeigefeld allein sind, wurde herausge­ funden, daß die Berührungszonen für diese Steuerungstasten nicht so groß sein müssen, wie solche für alleinstehende Steuerungstasten. Tests haben gezeigt, daß, wenn lediglich eine aktive Steuerungstaste auf dem Anzeigefeld angezeigt ist, Anwender bezüglich dem Anzeigefeldort, der berührt wird, etwas unpräzise sind wenn sie wünschen, die Steu­ erungstaste auszuwählen. Obwohl Anwender dazu tendieren, das Anzeigefeld irgendwo auf der allgemeinen Fläche, auf der die Steuerungstaste angezeigt ist, zu berühren, berühren sie das Feld nicht notwendigerweise an dem Punkt, der auf oder sehr nahe an der Anzeigefläche ist. Wenn jedoch zwei oder mehrere Steuerungstasten nahe aneinander auf dem Anzeigefeld sind, wurde herausgefunden, daß Anwender unterbewußt genauer wer­ den und dazu tendieren, das Anzeigefeld an einem Ort zu be­ rühren, der näher an der Steuerungstaste ist, die sie wün­ schen auszuwählen. Deshalb müssen die Berührungszonen für aktive Steuerungstasten, die benachbart zu anderen aktiven Steuerungstasten auf dem Anzeigefeld sind, nicht so groß sein, wie für alleinstehende Steuerungstasten, weil die An­ wender dazu tendieren, beim Berühren des Anzeigefeldes ge­ nauer zu sein, wenn sie diese Steuerungstasten auswählen.
Fig. 4 zeigt ein Beispiel einer Hardware-Ausführung der Vor­ richtung der vorliegenden Erfindung. Das System 600 schließt ein elektronisches System 602 mit einem Prozessor 604 ein. Wie oben angemerkt, könnte das elektronische System ein Be­ rechnungs- oder Datenverarbeitungssystem sein, oder es kön­ nte irgendeines von verschiedenen Typen von diagnostischen oder Test-Geräten sein. Bei einem bestimmten Ausführungsbei­ spiel der Erfindung ist das elektronische System ein Ultra­ schallabbildungssystem. Das elektronische System 602 ist mit einer Eingabe-/Ausgabe-Steuerung 606 über eine Nachrichten­ übertragungsverbindung 608 verbunden. Die Eingabe-/Ausgabe- Steuerung steuert den Betrieb des Eingabe-/Ausgabe-Geräts 614 und zwei Anzeigefelder mit berührungsempfindlicher Ein­ gabeschnittstelle 616 und 618.
Die Felder mit berührungsempfindlicher Anwenderschnittstelle 616 und 618 können von irgendeiner Art sein. Bei einem be­ stimmten Ausführungsbeispiel der Erfindung schließt das An­ zeigegerät mit berührungsempfindlicher Eingabeschnittstelle jedoch eine Anzeige und ein analoges, widerstandsbehaftetes Berührungsfeld ein, das auf die Anzeige angepaßt ist und an dieser befestigt ist. Bei Berührung erzeugt das widerstands­ behaftete Berührungsfeld analoge Signale, die den berührten Ort in seinen X-Y-Koordinaten auf dem Berührungsfeld anzei­ gen. Diese analogen Signale werden in digitale Werte gewan­ delt und werden unter Verwendung von Daten, die während der Kalibrierung gespeichert wurden, auf einem entsprechenden Pixelort auf der Anzeige abgebildet. Die Anzeige ist eine Pixel-adressierbare Anzeige, wie z. B. eine Flüssigkristall­ anzeige (LCD = Liquid Crystal Display), eine Kathodenstrahl­ röhre (CRT = Cathode Ray Tube) oder ein elektrolumineszentes Feld (EL).
Die bestimmte Systemkonfiguration, die in Fig. 4 gezeigt ist, ist lediglich aus darstellerischen Gründen vorgesehen, und es wird darauf hingewiesen, daß die Eingabe-/Ausgabe- Steuerung 606 verwendet werden könnte, um viel mehr Ein­ gabe-/Ausgabe-Geräte von verschiedenen Typen zu steuern, als auch zusätzliche Geräte mit berührungsempfindlicher Eingabe­ schnittstelle.
Die Eingabe-/Ausgabe-Steuerung 606 ist mit einem Prozessor 610 versehen, der mit dem elektronischen System 602 über Nachrichtenübertragungsverbindungen 608 und 612 verbunden ist. Der Prozessor 610 in der Eingabe-/Ausgabe-Steuerung 606 wird verwendet, um die Anzeige von Anzeigeflächen 620 auf den Anzeigeräten mit berührungsempfindlicher Eingabeschnitt­ stelle 616 und 618 zu steuern. Bei einem Ausführungsbeispiel der Erfindung ist der Prozessor 610 nicht besonders lei­ stungsfähig und steuert lediglich elementare Funktionen, die den Anzeigefeldern 616 und 618 zugeordnet sind, wie z. B. Abtasten der Bildschirme, um festzustellen, wann eine Berüh­ rung auftritt, und Aktualisieren der verschiedenen Anzeige­ flächen. Bei diesem Ausführungsbeispiel wird eine Software- Routine, die das anpassungsfähige Berührungserkennungsver­ fahren ausführt, primär in dem Prozessor 604 ausgeführt, der in dem elektronischen System 602 vorgesehen ist. Der Pro­ zessor 604 ist mit der Eingabe-/Ausgabe-Steuerung 606 über Nachrichtenübertragungsverbindungen 608 und 622 verbunden, wodurch es dem Prozessor 604 ermöglicht wird, den Betrieb der Anzeigefelder 616 und 618 zu steuern. Es wird darauf hingewiesen, daß bei einem alternativen Ausführungsbeispiel der Erfindung ein leistungsstärkerer Prozessor 610 in der Eingabe-/Ausgabe-Steuerung 606 vorgesehen sein kann, und daß die Software-Routine zum Ausführen des Verfahrens der vor­ liegenden Erfindung primär in dem Prozessor 610 ausgeführt werden kann.
Nun wird Bezug genommen auf Fig. 5, die ein Flußdiagramm der primären Schritte des Verfahrens der vorliegenden Erfindung ist, zum Bestimmen, ob, wenn überhaupt, eine aktive Steue­ rungsfunktion ausgewählt wurde, wenn ein Anwender das An­ zeigefeld berührt. Das Verfahren, das in Fig. 5 gezeigt ist, ist durch eine Software-Routine ausgeführt, die im Prozessor 604 und 610 ausgeführt wird, wie oben beschrieben. Anfäng­ lich wird der Ort des Anzeigefeldes, der durch den Fühler berührt wurde, beim Schritt 100 bestimmt. Wenn das Anzeige­ gerät mit Eingabeschnittstelle berührt wird, erzeugt das An­ zeigegerät Signale, die den Ort auf dem Anzeigefeld anzei­ gen, der durch den Fühler berührt wurde. Bei einem Ausfüh­ rungsbeispiel der Erfindung mittelt das Anzeigegerät die Pixel, die durch den Fühler berührt wurden, und zeigt den Berührungsort durch die X-Y-Koordinaten eines einzelnen Pixels an, das dem Ort entspricht, an dem die Mitte des Fühlers das Anzeigefeld berührt hat. Durch Untersuchen der durch das Anzeigegerät erzeugten Signale wird der Berüh­ rungsort auf dem Anzeigefeld beim Schritt 100 festgestellt. Nachdem der Berührungsort festgestellt ist, fährt das Ver­ fahren beim Schritt 102 fort, bei dem eine Bestimmung durch­ geführt wird, ob der Berührungsort mit einer Anzeigefläche für irgendeine aktive Steuerungstaste übereinstimmt. Der Be­ rührungsort stimmt mit einer Anzeigefläche für eine aktive Steuerungstaste überein, wenn er innerhalb der Anzeigefläche für diese aktive Steuerungstaste fällt.
Wenn beim Schritt 102 festgestellt wird, daß der Berührungs­ ort mit der Anzeigefläche für eine aktive Berührungszone bzw. aktive Steuerungstaste übereinstimmt, fährt das Verfah­ ren beim Schritt 104 fort, bei dem die aktive Steuerungs­ funktion ausgewählt wird, die durch die Steuerungstaste an­ gezeigt ist, die der übereinstimmenden Anzeigefläche ent­ spricht. Die Steuerungsfunktion wird durch Erzeugen eines Steuerungssignals im Prozessor 604 oder 610 ausgewählt, das dem Computersystem 602 anzeigt, daß der Anwender die Steue­ rungsfunktion zur Verarbeitung ausgewählt hat. Nachdem die Steuerungsfunktion beim Schritt 104 ausgewählt ist, endet das Verfahren. Wenn ein Anwender das Anzeigefeld an einem Ort berührt, der innerhalb der Anzeigefläche für eine aktive Steuerungstaste fällt, wird folglich die Steuerungsfunktion, die dieser Steuerungstaste entspricht, ausgewählt.
Wenn beim Schritt 102 festgestellt wird, daß der Berührungs­ ort nicht mit der Anzeigefläche für irgendeine aktive Steue­ rungstaste übereinstimmt, fährt das Verfahren beim Schritt 106 fort, bei dem die Anzeigefläche bestimmt wird, die dem Berührungsort am nächsten ist. Zusätzlich wird die Entfer­ nung zwischen dem Berührungsort und dem am nächsten liegen­ den aktiven Berührungsfeld beim Schritt 106 berechnet. Da­ nach fährt das Verfahren beim Schritt 108 fort, bei dem eine Feststellung gemacht wird, ob die Entfernung zwischen dem am nächsten liegenden Berührungsfeld bzw. der am nähesten lie­ genden aktiven Anzeigefläche und dem Berührungsort eine vor­ bestimmte Entfernung überschreitet.
Wie oben mit Bezug auf Fig. 3(a) angemerkt, ist für jede ak­ tive Steuerungstaste, die nicht zu irgendwelchen anderen ak­ tiven Steuerungstasten benachbart ist, eine erweiterte Be­ rührungszone definiert, deren Grenzen von der Anzeigefläche in jeder Richtung um eine vorbestimmte Entfernung r beab­ standet sind. Bei einem Ausführungsbeispiel der Erfindung hat das Anzeigegerät mit Eingabeschnittstelle ein 512×256 Array von Pixeln, und die Anzeigefläche für jede aktive Steuerungstaste ist durch ein 66×32 Array von Pixeln de­ finiert. Für dieses bestimmte Anzeigefeld und die Anzeige­ flächengrößen hat ein Test gezeigt, daß das erfindungsgemäße Verfahren gut arbeitet, wenn die vorbestimmte Entfernung r gleich 25 Pixel hergestellt wird. Es ist offensichtlich, daß die vorbestimmte Entfernung r alternativ gleich verschie­ denen anderen Anzahlen von Pixeln hergestellt werden kann, die ebenfalls ein befriedigendes Verhalten des anpassungs­ fähigen Berührungserkennungssystems schaffen würden. Zusätz­ lich, wie oben mit Bezug auf Fig. 3(a) beschrieben, müssen die Grenzen für die erweiterten Berührungszonen nicht um die gleiche Entfernung in jede Richtung von ihren Anzeigeflächen beabstandet sein, und sie können um unterschiedliche Ab­ stände in verschiedene Richtung beabstandet sein. Tatsäch­ lich können erweiterte Berührungszonen definiert werden, die von den Anzeigeflächen lediglich in bestimmten Richtungen beabstandet sind.
Wenn beim Schritt 108 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und dem am nächsten liegenden Be­ rührungsfeld bzw. der am nächsten liegenden aktiven Steue­ rungstaste die vorbestimmte Entfernung überschreitet, er­ kennt das Verfahren, daß der Berührungsort nicht innerhalb der erweiterten Berührungszone der am nächsten liegenden ak­ tiven Steuerungstaste liegt. Deshalb fährt das Verfahren beim Schritt 110 fort, der anzeigt, daß keine aktive Steu­ erungsfunktion durch den Anwender ausgewählt wurde. Danach wird das Verfahren beendet.
Wenn beim Schritt 108 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der am nächsten liegenden ak­ tiven Steuerungstaste die vorbestimmte Entfernung nicht überschreitet, fährt das Verfahren beim Schritt 112 fort, bei dem eine Feststellung getroffen wird, ob der Berührungs­ ort in eine Totzone zwischen dem am nächsten liegenden Be­ rührungsfeld bzw. der am nächsten liegenden aktiven Steue­ rungstaste und irgendeinem Berührungsfeld bzw. irgendeiner aktiven Steuerungstaste benachbart zu dieser fällt. Wie oben mit Bezug auf Fig. 3(b) beschrieben, sind bei einem Ausfüh­ rungsbeispiel der Erfindung Totzonen zwischen den erweiter­ ten Berührungszonen von benachbarten aktiven Steuerungsta­ sten hergestellt. Zwei oder mehr aktive Steuerungstasten sind hier als benachbart zueinander definiert, wenn sie re­ lativ zueinander in einer Art derart angeordnet sind, daß ihre erweiterten Berührungszonen nicht so groß sein können, wie diejenigen, die für alleinstehende Steuerungstasten de­ finiert sind. Genauer gesagt sind zwei Steuerungstasten be­ nachbart, wenn entweder: (1) sie derart angeordnet sind, daß ihre erweiterten Berührungszonen sich überlappen würden, wenn die Grenzen für jede erweiterte Berührungszone von der entsprechenden Anzeigefläche um eine vorbestimmte Entfernung r in jede Richtung beabstandet wäre; oder (2) sie derart an­ geordnet sind, daß eine Totzone, die eine vorbestimmte Ent­ fernung d hat, nicht zwischen ihnen beibehalten würde, wenn die Grenzen der erweiterten Berührungszonen für jede der entsprechenden Anzeigeflächen um die vorbestimmte Entfernung r in jede Richtung beabstandet wäre.
Durch Experimente wurde herausgefunden, daß für ein System, das das Anzeigefeld und die Anzeigeflächengrößen hat, die oben beschrieben sind, befriedigende Totzonen zwischen er­ weiterten Berührungszonen von benachbarten aktiven Steue­ rungstasten durch Einstellen der vorbestimmten Entfernung d, um die die erweiterten Berührungszonen beabstandet sind, auf drei Pixel erreicht werden können. Es wird darauf hingewie­ sen, daß die vorbestimmte Entfernung d ebenfalls auf ver­ schiedene andere Anzahlen von Pixeln eingestellt werden kann und immer noch ein befriedigendes Verhalten des erfindungs­ gemäßen Verfahrens erreicht wird. Zusätzlich, wie oben mit Bezug auf Fig. 3(b) beschrieben, kann die vorbestimmte Ent­ fernung d alternativ auf Null eingestellt werden, wodurch keine Totzone zwischen den erweiterten Berührungszonen von benachbarten aktiven Steuerungstasten vorgesehen ist.
Wenn beim Schritt 112 festgestellt wird, daß der Berührungs­ ort in eine Totzone fällt, fährt das Verfahren beim Schritt 110 fort, der ein Signal erzeugt, das anzeigt, daß keine ak­ tive Steuerungsfunktion ausgewählt wurde. Wie oben beschrie­ ben, wurde keine aktive Steuerungstaste ausgewählt, wenn der Berührungsort in eine Totzone fällt.
Wenn beim Schritt 112 festgestellt wird, daß der Berührungs­ ort nicht in eine Totzone zwischen der am nächsten liegenden aktiven Steuerungstaste und irgendeiner anderen aktiven Steuerungstaste fällt, fährt das Verfahren beim Schritt 114 fort, bei dem die Steuerungsfunktion ausgewählt wird, die dem am nächsten liegenden Berührungsfeld bzw. der am näch­ sten liegenden aktiven Steuerungstaste entspricht. Die Steu­ erungsfunktion wird im wesentlichen auf dieselbe Art, wie es oben mit Bezug auf Schritt 104 beschrieben wurde, durch Er­ zeugen eines Steuerungssignals im Prozessor 604 oder 610 ausgewählt, das dem Computersystem 610 anzeigt, daß der An­ wender die Steuerungsfunktion zur Verarbeitung ausgewählt hat.
Wie aus dem Vorangegangenen zu erkennen ist, definiert das Verfahren, das in Fig. 5 dargestellt ist, eine erweiterte Berührungszone für jede aktive Steuerungstaste auf dem An­ zeigefeld. Die erweiterte Berührungszone für jede aktive Steuerungstaste hat eine Fläche, die größer als die Anzeige­ fläche für die Steuerungstaste ist. Zusätzlich verändert sich die Fläche der erweiterten Berührungszone für jede ak­ tive Steuerungstaste abhängig von dem Vorhandensein und dem Ort von anderen aktiven Steuerungstasten auf dem Anzeige­ feld. Wenn zwei aktive Steuerungstasten benachbart zueinan­ der sind, sind die Flächen ihrer erweiterten Berührungszonen kleiner als die Flächen von erweiterten Berührungszonen für alleinstehende aktive Steuerungstasten, weil das Verfahren sicherstellt, daß die erweiterten Berührungszonen von be­ nachbarten Steuerungstasten sich nicht überlappen.
Wie ferner aus dem Verfahren, das in Fig. 5 gezeigt ist, ge­ sehen werden kann, wird eine erweiterte Berührungszone für jede aktive Steuerungstaste definiert, die eine Grenze hat, die von ihrer entsprechenden Anzeigefläche um eine vorbe­ stimmte Entfernung in jede Richtung beabstandet ist, außer den Richtungen, die benachbarten aktiven Steuerungstasten gegenüberliegen. Um sicherzustellen, daß sich die erweiter­ ten Berührungszonen von benachbarten aktiven Steuerungsta­ sten nicht überlappen, ist die Grenze der benachbarten Be­ rührungszone für eine Steuerungstaste von ihrer entsprechen­ den Anzeigefläche um weniger als die vorbestimmte Entfernung in Richtungen, die benachbarten aktiven Steuerungstasten ge­ genüberliegen, beabstandet. Für das Ausführungsbeispiel der Erfindung, das in Fig. 5 gezeigt ist, bei dem Totzonen zwi­ schen den erweiterten Berührungszonen von benachbarten ak­ tiven Steuerungstasten definiert sind, ist die Grenze für die erweiterte Berührungszone für jede aktive Steuerungsta­ ste zusätzlich von ihrer entsprechenden Anzeigefläche um weniger als die vorbestimmte Entfernung in Richtungen, die benachbarten aktiven Steuerungstasten gegenüberliegen, beab­ standet, um sicherzustellen, daß die erweiterten Berührungs­ zonen für benachbarte aktive Steuerungstasten voneinander durch die vorbestimmte Totzonenentfernung beabstandet sind.
Nun wird Bezug genommen auf Fig. 6, die ein Flußdiagramm des Verfahrens der vorliegenden Erfindung zeigt. Es wurde her­ ausgefunden, daß dieses bestimmte Verfahren das erfindungs­ gemäße Verfahren in genauer und effizienter Art und Weise ausführt. Es wird jedoch darauf hingewiesen, daß dieses Ver­ fahren lediglich aus illustrativen Gründen vorgesehen ist, und daß die Erfindung nicht auf dieses Verfahren beschränkt ist. Andere Verfahren können ebenfalls verwendet werden, um das Verfahren der vorliegenden Erfindung auszuführen, das auf der Lehre basiert ist, die hierin dargestellt wird.
Das Verfahren, das in Fig. 6 dargestellt ist, ist durch eine Software-Routine ausgeführt, die durch den Prozessor 604 oder 610 (Fig. 4) ausgeführt wird, wie oben beschrieben. Der Prozessor 610 tastet wiederholt das Anzeigefeld ab, um fest­ zustellen, wann eine Nicht-Berührung oder eine Berührung auftritt. Die Ausdrücke Berührung bzw. Nicht-Berührung wer­ den hier in Analogie zum Niederdrücken einer Taste bzw. Los­ lassen einer Taste auf einer Tastatur verwendet. Eine Be­ rührung tritt auf, immer wenn der Prozessor 610 feststellt, daß der Fühler einen Pixel kontaktiert, der nicht kontak­ tiert war, als das Anzeigefeld früher abgetastet wurde. Wie oben angemerkt, zeigt bei einem Ausführungsbeispiel der Er­ findung das Anzeigefeld die mittleren X-Y-Koordinaten der Fläche an, die durch den Fühler berührt wurde, wodurch ein einzelner Pixel angezeigt wird, der dem Ort auf dem Anzeige­ feld entspricht, der durch die Mitte des Fühlers berührt wurde. Für dieses Ausführungsbeispiel ist eine Berührung immer dann definiert, wenn der Fühler in Kontakt mit dem An­ zeigefeld gesetzt ist, oder wenn der Fühlerort verändert wird, wie es durch eine Änderung der X-Y-Koordinaten der ge­ mittelten Pixel angezeigt ist. Deshalb können mehrere Berüh­ rungen auftreten, wenn die Fühlerposition auf dem Anzeige­ feld verändert wird, sogar wenn der Fühler nicht aus dem Kontakt mit dem Anzeigefeld entfernt wird. Eine Nicht-Be­ rührung tritt immer dann auf, wenn der Fühler von dem An­ zeigefeld derart entfernt oder freigelassen wird, daß er nicht länger irgendeinen Abschnitt des Anzeigefeldes be­ rührt.
Die Software-Routine, die in Fig. 6 gezeigt ist, wird immer dann aufgerufen, wenn eine Nicht-Berührung oder eine Berüh­ rung auftritt. An diesem Punkt liest die Software-Routine Informationen bezüglich des Ortes des Fühlers und bezüglich des Status des Anzeigefeldes beim Schritt 200 ein. Die In­ formationen bezüglich des Ortes des Fühlers, die durch die Routine gelesen werden, schließen ein: (1) ob die Aktion, die die Routine aufgerufen hat, eine Nicht-Berührung oder eine Berührung war; (2) die X-Y-Koordinaten des Durch­ schnitts des berührten Pixels; und (3) wenn das System mehr­ ere Anzeigefelder verwendet, die Identifikation des Anzeige­ feldes, das berührt wurde oder das losgelassen wurde. Zu­ sätzlich zu den Informationen bezüglich des Fühlerortes wer­ den ebenfalls Informationen bezüglich des Status des An­ zeigefeldes eingelesen, diese Informationen schließen ein: (1) die Identifikation jeder aktiven Steuerungstaste auf dem Anzeigefeld; und (2) die X-Y-Koordinaten der Anzeigeflä­ chen, die jeder aktiven Steuerungstaste entsprechen. Wie oben angemerkt, kann sich die Identität und der Ort der ak­ tiven Steuerungstasten auf dem Anzeigefeld abhängig von dem Betriebsmodus des Systems, das mit der Eingabeschnittstelle verbunden ist, verändern. Zu irgendeinem gegebenen Zeitpunkt wird die Identität und der Ort der aktiven Steuerungstasten auf dem Anzeigefeld entweder im Speicher, der durch das System verwendet wird, oder im Speicher, der der Eingabe­ schnittstelle zugeordnet ist, gespeichert. Wenn die Soft­ ware-Routine, die in Fig. 6 dargestellt ist, aufgerufen wird, liest sie deshalb aus dem Speicher die notwendigen In­ formationen bezüglich des Status des Anzeigefeldes zu dem Zeitpunkt, zu dem die Nicht-Berührung oder die Berührung auftrat, der die Unter-Routine aufgerufen hat.
Nachdem die oben beschriebenen Informationen gelesen wurden, fährt die Routine mit dem Schritt 202 fort, bei dem eine Feststellung getroffen wird, ob die Aktion, die den Aufruf der Routine veranlaßt hat, eine Nicht-Berührung war. Die Software-Routine, die in Fig. 6 dargestellt ist, erkennt le­ diglich eine gültige Berührung des Anzeigefeldes und er­ fordert, daß der Fühler von dem Anzeigefeld entfernt wird, bevor eine weitere gültige Berührung erkannt wird. Eine gül­ tige Berührung ist definiert als eine, die in die Berühr­ ungszone einer aktiven Steuerungstaste fällt. Nachdem eine gültige Berührung aufgetreten ist, werden alle weiteren Be­ rührungen des Anzeigefeldes ignoriert, bis eine Nicht-Be­ rührung auftritt, d. h., bis der Fühler von dem Anzeigefeld entfernt ist. Es gibt zwei Gründe für die Nichtbeachtung aller Berührungen des Anzeigefeldes, die nach einer gültigen Berührung auftreten, aber vor einer Nicht-Berührung auftre­ ten. Erstens kann, sobald der Anwender eine gültige Berühr­ ung des Anzeigefeldes durchgeführt hat, der Anwender etwas nachlässig sein, wenn er den Fühler von dem Anzeigefeld ent­ fernt, und er kann ihn unbeabsichtigt über das Anzeigefeld gleiten lassen, wodurch der Fühler einen Ort auf dem Anzei­ gefeld berührt, der in die erweiterte Berührungszone einer weiteren aktiven Steuerung fällt. Sobald eine aktive Steue­ rung als berührt und ausgewählt erkannt wurde, wird jedoch angenommen, daß der Anwender den Fühler von dem Anzeigefeld entfernt, bevor er versucht, eine weitere aktive Steuerungs­ taste auszuwählen. Sobald eine aktive Steuerungstaste ausge­ wählt wurde, wird deshalb eine "Warte auf Nicht-Berührung"- Flagge auf die Art, wie es unten beschrieben ist, einge­ stellt. Danach werden alle weiteren Berührungen des Anzeige­ feldes (d. h. Berührungen) ignoriert, bis die Warte-auf- Nicht-Berührung-Flagge gelöscht ist, was anzeigt, daß eine Nicht-Berührung aufgetreten ist.
Zweitens kann, wie oben beschrieben, das System in einen neuen Betriebsmodus eintreten, wenn eine aktive Steuerungs­ taste durch den Anwender ausgewählt ist. Als ein Ergebnis kann sich der Status des Anzeigefeldes verändern und zu­ sätzliche aktive Steuerungstasten können auftauchen, die benachbart zu der ausgewählten Steuerungstaste sind. Wenn die ausgewählte Steuerungstaste nicht in der Nähe irgend­ welcher anderer aktiver Steuerungstasten auf dem Anzeigefeld angeordnet ist, wird ihre erweiterte Berührungszone recht groß sein. Wenn jedoch neue Steuerungstasten auf dem Anzei­ gefeld als ein Ergebnis der Steuerungstaste, die durch den Anwender ausgewählt wurde, erscheinen, kann der Ort, der durch den Anwender berührt wurde, um die alleinstehende Steuerungstaste auszuwählen, in die erweiterte Berührungszo­ ne einer neuen Steuerungstaste fallen, die auf dem Anzeige­ feld als Reaktion auf die Auswahl der isolierten Steuerungs­ taste durch den Anwender erscheint. Um eine zweite, uner­ wünschte Steuerungstastenauswahl zu verhindern, sobald der Anwender eine aktive Steuerungstaste ausgewählt hat, erkennt die Software-Routine die Auswahl von irgendeiner weiteren aktiven Steuerungstaste nicht, bis die Warte-auf-Nicht-Be­ rührung-Flagge gelöscht ist.
Wenn beim Schritt 202 festgestellt wird, daß die Software- Routine als ein Ergebnis einer Nicht-Berührung aufgerufen wurde, fährt die Routine beim Schritt 204 fort, bei dem die Warte-auf-Nicht-Berührung-Flagge gelöscht wird, um anzuzei­ gen, daß der Fühler von dem Anzeigefeld entfernt wurde, und deshalb weitere Berührungen des Feldes erkannt werden sollten. Danach fährt die Routine beim Schritt 206 fort, der eine Anzeige zurückgibt, daß keine Taste ausgewählt wurde, und die Routine dann beendet. Die Software-Routine kehrt beim Schritt 206 mit einer Anzeige zurück, daß keine Taste ausgewählt wurde, weil die Aktivität, die die Software-Rou­ tine aufgerufen hat, eine Nicht-Berührung war. Eine Nicht- Berührung zeigt einfach an, daß der Fühler von dem Anzeige­ feld entfernt wurde und zeigt keine Auswahl irgendeiner ak­ tiven Steuerungstaste an.
Wenn beim Schritt 202 festgestellt wird, daß die Aktivität, die die Software-Routine aufgerufen hat, keine Nicht-Berühr­ ung war, erkennt die Routine, daß eine Berührung aufgetreten ist und fährt beim Schritt 208 fort, bei dem eine Feststel­ lung getroffen wird, ob die Warte-auf-Nicht-Berührung-Flagge eingestellt ist. Wenn beim Schritt 208 festgestellt wird, daß die Warte-auf-Nicht-Berührung-Flagge eingestellt ist, fährt die Routine beim Schritt 206 fort, der eine Anzeige zurückgibt, daß keine aktive Steuerungstaste ausgewählt wurde. Wie oben angemerkt, ist die Warte-auf-Nicht-Berühr­ ung-Flagge eingestellt, sobald eine aktive Steuerungstaste ausgewählt wurde, was anzeigt, daß alle weiteren Berührungen ignoriert werden sollten, bis der Fühler von dem Anzeigebe­ rührungsfeld entfernt ist. Wenn beim Schritt 208 erkannt wird, daß die Warte-auf-Nicht-Berührung-Flagge eingestellt ist, stellt die Software-Routine deshalb fest, daß die Be­ rührung, die die Routine aufgerufen hat, ignoriert werden sollte, und die Routine gibt deshalb eine Anzeige zurück, daß keine aktive Steuerungstaste durch die Berührung aus­ gewählt wurde.
Wenn beim Schritt 208 festgestellt wird, daß die Warte-auf- Nicht-Berührung-Flagge nicht eingestellt ist, fährt die Rou­ tine beim Schritt 210 fort, der eine Flagge löscht, die an­ zeigt, daß ein Knapp-Vorbei-Zustand aufgetreten ist. Das Ziel der Knapp-Vorbei-Flagge ist unten vollständig beschrie­ ben. Die Knapp-Vorbei-Flagge wird beim Schritt 210 als ein Initialisierungsschritt vor der Verarbeitung einer Berührung gelöscht.
Nachdem die Knapp-Vorbei-Flagge gelöscht ist, fährt die Rou­ tine beim Schritt 212 fort, der das erste aktive Berührungs­ feld bzw. die erste aktive Steuerungstaste zur Verarbeitung auswählt. Wie oben beschrieben wurde, schließen die Informa­ tionen, die beim Schritt 200 gelesen wurden, die Identität und den Ort jeder aktiven Steuerungstaste auf dem Anzeige­ feld ein. Die Auswahl irgendeiner besonderen aktiven Steu­ erungstaste als diejenige, die zuerst verarbeitet werden soll, ist gänzlich willkürlich. Die Software-Routine erfor­ dert lediglich, daß die aktiven Steuerungstasten in einer Art klassifiziert sind, derart, daß sie auf eine organisie­ rte Art und Weise, wie unten beschrieben, nacheinanderfol­ gend verarbeitet werden können.
Nachdem die erste Steuerungstaste zur Verarbeitung ausge­ wählt wurde, fährt die Software-Routine beim Schritt 214 (Fig. 7) fort, bei dem eine Feststellung getroffen wird, ob das letzte aktive Berührungsfeld bzw. die letzte aktive Steuerungstaste bereits verarbeitet wurde. Wenn beim Schritt 214 festgestellt wird, daß die letzte aktive Steuerungstaste noch nicht verarbeitet wurde, fährt die Routine beim Schritt 216 fort, bei dem eine Feststellung getroffen wird, ob der Berührungsort mit der Anzeigefläche für die ausgewählte ak­ tive Steuerungstaste übereinstimmt. Der Berührungsort stimmt mit einer Anzeigefläche überein, wenn seine X-Y-Koordinaten in den Bereich der X-Y-Koordinaten, die die Anzeigefläche definieren, hineinfällt.
Wenn beim Schritt 216 festgestellt wird, daß der Berührungs­ ort mit der Anzeigefläche des ausgewählten aktiven Berüh­ rungsfeldes bzw. der Steuerungstaste übereinstimmt, fährt die Software-Routine beim Schritt 218 fort, bei dem ein Feld- bzw. Tastenindex eingestellt wird, um die überein­ stimmende aktive Steuerungstaste anzuzeigen. Der Tastenindex ist ein Datenfeld, das dem System zugeführt wird, wenn die Routine nach dem Aufruf durch eine Berührung des Anzeigefel­ des zurückkehrt. Der Tastenindex zeigt an, welche, wenn überhaupt eine, aktive Steuerungstaste durch die Berührung, die die Software-Routine aufgerufen hat, ausgewählt wurde. Der Tastenindex wird beim Schritt 218 eingestellt, wenn eine gültige Berührung aufgetreten ist, d. h. wenn eine Berührung aufgetreten ist, der mit der Anzeigefläche für eine aktive Steuerungstaste übereinstimmt. Nachdem der Tastenindex beim Schritt 218 eingestellt ist, fährt die Routine beim Schritt 220 fort, bei dem die Warte-auf-Nicht-Berührung-Flagge ein­ gestellt wird. Wie oben angemerkt, besteht der Sinn der War­ ten-auf-Nicht-Berührung-Flagge darin, anzuzeigen, daß eine gültige Berührung aufgetreten ist, und daß zusätzliche Be­ rührungen ignoriert werden sollten, bis der Fühler von dem Anzeigefeld entfernt wurde. Nachdem die Warte-auf-Nicht-Be­ rührung-Flagge beim Schritt 220 eingestellt ist, fährt die Software-Routine beim Schritt 220 fort, der die Steuerungs­ taste, die durch den Tastenindex angezeigt ist, zurückgibt. Wie oben angemerkt, wird der Tastenindex verwendet, um anzu­ zeigen, welche, wenn überhaupt ein, aktive Steuerungstaste durch die Berührung, die die Software-Routine aufgerufen hat, ausgewählt wurde.
Wie oben beschrieben, wird, wenn beim Schritt 216 festge­ stellt wird, daß die Berührung mit der Anzeigefläche einer aktiven Steuerungstaste übereinstimmt, der Tastenindex beim Schritt 218 eingestellt, um die Steuerungstaste, die der übereinstimmenden Anzeigefläche entspricht, anzuzeigen. Der Feld- bzw. Tastenindex für das übereinstimmende Berührungs­ feld bzw. die Steuerungstaste wird beim Schritt 222 zurück­ gegeben, und die Software-Routine wird dann beendet. Auf diese Art werden, wenn festgestellt wird, daß die Berührung mit der Anzeigefläche der aktiven Steuerungstaste, die ver­ arbeitet wird, übereinstimmt, keine weiteren aktiven Steu­ erungstasten verarbeitet.
Wenn beim Schritt 216 festgestellt wird, daß die Berührung mit der Anzeigefläche für die Steuerungstaste, die verarbei­ tet wird, nicht übereinstimmt, fährt die Software-Routine beim Schritt 224 fort, bei dem eine Feststellung getroffen wird, ob die Entfernung zwischen dem Berührungsort und der Anzeigefläche des Berührungsfeldes bzw. der Steuerungstaste, die verarbeitet wird, eine vorbestimmte Entfernung in die X-Koordinatenrichtung überschreitet. Wie oben mit Bezug auf Fig. 3(a) beschrieben wurde, wird eine Berührung durch das erfindungsgemäße Verfahren als Auswahl einer aktiven Steue­ rungstaste erkannt, wenn sie in eine erweiterte Berührungs­ zone, die für die Steuerungstaste definiert ist, hinein­ fällt. Die maximale Größe einer erweiterten Berührungszone für eine Steuerungstaste ist definiert, wenn ihre Grenze von der Anzeigefläche der Steuerungstaste um eine vorbestimmte Entfernung r beabstandet ist. Um festzustellen, ob der Be­ rührungsort in die erweiterte Berührungszone der Steuerungs­ taste, die verarbeitet wird, fällt, stellt die Software-Rou­ tine deshalb fest, ob die Entfernung zwischen dem Berüh­ rungsort und der Anzeigefläche der Steuerungstaste, die ver­ arbeitet wird, die vorbestimmte Entfernung r überschreitet. Wenn die Entfernung zwischen dem Berührungsort und der An­ zeigefläche die vorbestimmte Entfernung überschreitet, er­ kennt die Software-Routine, daß der Berührungsort nicht in die erweiterte Berührungszone für die Steuerungstaste, die verarbeitet wird, fällt und fährt fort, die nächste aktive Steuerungstaste auf die Art und Weise, wie sie unten be­ schrieben ist, zu verarbeiten.
Die Entfernung zwischen dem Berührungsort und der Anzeige­ fläche der Steuerungstaste, die verarbeitet wird, kann unter Verwendung des Satzes des Pythagoras bestimmt werden. Wenn sich die X-Koordinate des Berührungsortes von der X-Koordi­ nate der am nächsten liegenden Seite der Anzeigefläche um mehr als eine vorbestimmte Entfernung unterscheidet, über­ schreitet die Gesamtentfernung zwischen dem Berührungsort und der Anzeigefläche jedoch notwendigerweise die vorbe­ stimmte Entfernung. Wenn beim Schritt 224 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der Anzei­ gefläche der Steuerungstaste, die verarbeitet wird, die vor­ bestimmte Entfernung in X-Richtung überschreitet, erkennt die Software-Routine deshalb, daß der Berührungsort nicht in die erweiterte Berührungszone der Steuerungstaste, die ver­ arbeitet wird, fällt und fährt beim Schritt 226 fort. Beim Schritt 226 wählt die Software-Routine die nächste aktive Steuerungstaste zur Verarbeitung aus und kehrt zum Schritt 214 zurück.
Wenn beim Schritt 224 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steue­ rungstaste, die verarbeitet wird, die vorbestimmte Entfer­ nung in X-Richtung nicht überschreitet, fährt die Software- Routine beim Schritt 228 fort. Beim Schritt 228 wird eine Feststellung getroffen, ob die Entfernung zwischen dem Be­ rührungsort und der Anzeigefläche des Berührungsfeldes bzw. der Steuerungstaste, die verarbeitet wird, die vorbestimmte Entfernung in der Y-Richtung überschreitet. Wenn beim Schritt 228 festgestellt wird, daß die Entfernung die vorbe­ stimmte Entfernung in der Y-Richtung überschreitet, erkennt die Software-Routine, daß der Berührungsort nicht in die er­ weiterte Berührungszone der Steuerungstaste, die verarbeitet wird, fällt, und fährt beim Schritt 226 fort, der die näch­ ste aktive Steuerungstaste zur Verarbeitung auswählt, und kehrt dann zum Schritt 214 zurück.
Wenn beim Schritt 228 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steue­ rungstaste, die verarbeitet wird, die vorbestimmte Entfer­ nung in der Y-Richtung nicht überschreitet, fährt die Soft­ ware-Routine beim Schritt 230 fort, bei dem die Entfernung zwischen dem Berührungsort und dem am nächsten gelegenen Pixel der Anzeigefläche der Steuerungstaste, die verarbeitet wird, unter Verwendung des Satzes des Pythagoras berechnet wird. Wie durch den Satz des Pythagoras aufgestellt, ist die Entfernung zwischen dem Berührungspunkt und dem am nächsten gelegenen Pixel der Anzeigefläche gleich der Quadratwurzel der Summe der Quadrate der Differenz in X-Koordinaten und der Quadrate der Differenz in Y-Koordinaten.
Nachdem die Entfernung zwischen dem Berührungsort und der Anzeigefläche für die Steuerungstaste, die verarbeitet wird, beim Schritt 230 berechnet ist, fährt die Routine beim Schritt 232 (Fig. 8) fort, bei dem eine Feststellung getrof­ fen wird, ob diese Entfernung die vorbestimmte Entfernung r überschreitet.
Obwohl die Entfernung zwischen dem Berührungsort und der An­ zeigefläche unter Verwendung des Satzes des Pythagoras be­ rechnet werden kann, wie oben beschrieben wurde, wird bei einem alternativen Ausführungsbeispiel der Software-Routine die tatsächliche Entfernung zwischen dem Berührungsort und der Anzeigefläche beim Schritt 230 nicht berechnet. Bei dem alternativen Ausführungsbeispiel wird lediglich das Quadrat der Entfernung beim Schritt 230 berechnet, wodurch die Not­ wendigkeit, eine Quadratwurzel-Operation durchzuführen, aus­ geschlossen wird. Bei diesem Ausführungsbeispiel wird das Quadrat der Entfernung, das beim Schritt 230 berechnet wur­ de, beim Schritt 232 mit dem Quadrat der vorbestimmten Ent­ fernung r verglichen. Auf diese Art stellt das alternative Ausführungsbeispiel ebenfalls beim Schritt 232 fest, ob die Entfernung zwischen dem Berührungspunkt und der Anzeigeflä­ che die vorbestimmte Entfernung r überschreitet.
Wenn beim Schritt 232 festgestellt wird, daß die Entfernung zwischen dem Berührungspunkt und der Anzeigefläche der Steu­ erungstaste, die verarbeitet wird, die vorbestimmte Entfern­ ung r überschreitet, erkennt die Software-Routine, daß der Berührungspunkt nicht in die erweiterte Berührungszone der Steuerungstaste, die verarbeitet wird, fällt. Als ein Erge­ bnis fährt die Routine beim Schritt 234 fort, der das näch­ ste aktive Berührungsfeld bzw. die Steuerungstaste zur Ver­ arbeitung auswählt, und kehrt dann zum Schritt 214 (Fig. 7) zurück.
Wie aus dem Vorangegangenen gesehen werden kann, führt die Software-Routine, wenn entweder beim Schritt 222, 228 oder 232 festgestellt wird, daß die Entfernung zwischen dem Be­ rührungspunkt und der Anzeigefläche der Steuerungstaste, die verarbeitet wird, die vorbestimmte Entfernung r überschrei­ tet, entweder beim Schritt 226 oder 234 fort, um die nächste aktive Steuerungstaste zur Verarbeitung auszuwählen, und kehrt dann zum Schritt 214 zurück, bei dem eine Feststellung getroffen wird, ob die letzte aktive Steuerungstaste verar­ beitet wurde. Als ein Ergebnis erkennt die Software-Routine, wenn eine Steuerungstaste verarbeitet wird, die eine Anzei­ gefläche hat, die von dem Berührungspunkt weiter entfernt ist als die vorbestimmte Entfernung r, daß der Berührungs­ punkt nicht in die erweiterte Berührungszone der Steuerungs­ taste fällt, und fährt deshalb fort, die nächste aktive Steuerungstaste zu verarbeiten. Auf diese Art verarbeitet die Software-Routine nacheinanderfolgend die aktiven Steue­ rungstasten, bis entweder: (1) beim Schritt 232 festgestellt wird, daß die Entfernung zwischen dem Berührungspunkt und der Anzeigefläche der Steuerungstaste, die verarbeitet wird, die vorbestimmte Entfernung r nicht überschreitet; oder (2) beim Schritt 214 festgestellt wird, daß die letzte aktive Steuerungstaste verarbeitet wurde.
Wenn beim Schritt 232 festgestellt wird, daß die Entfernung zwischen dem Berührungspunkt und der Anzeigefläche der Steu­ erungstaste, die verarbeitet wird, die vorbestimmte Entfern­ ung nicht überschreitet, fährt die Software-Routine beim Schritt 236 fort, bei dem eine Feststellung getroffen wird, ob die Knapp-Daneben-Flagge eingestellt ist. Die Knapp-Dane­ ben-Flagge wird eingestellt, wenn die Entfernung zwischen dem Berührungspunkt und der Anzeigefläche von zumindest einer vorher verarbeiteten aktiven Steuerungstaste kleiner ist als die vorbestimmte Entfernung r. Deshalb zeigt die Knapp-Daneben-Flagge an, daß der Berührungspunkt entweder in die erweiterte Berührungszone einer der aktiven Steuerungs­ tasten fällt, oder in eine Totzone zwischen zwei aktive Steuerungstasten fällt.
Wenn beim Schritt 236 festgestellt wird, daß die Knapp-Dane­ ben-Flagge nicht eingestellt ist, fährt die Software-Routine beim Schritt 238 fort, bei dem die folgenden drei Funktionen ausgeführt werden: (1) die Knapp-Daneben-Flagge wird einge­ stellt, um anzuzeigen, daß die Entfernung zwischen dem Be­ rührungspunkt und der Anzeigefläche der Steuerungstaste, die verarbeitet wird, kleiner als die vorbestimmte Entfernung ist; (2) ein Knapp-Daneben-Entfernungs-Wert wird gespei­ chert, der die Entfernung, die beim Schritt 230 berechnet wurde, zwischen dem Berührungspunkt und der Anzeigefläche der Steuerungstaste, die verarbeitet wird, anzeigt; und (3) der Feld- bzw. Tastenindex wird gleich dem Berührungsfeld bzw. der Steuerungstaste, die derzeitig verarbeitet wird, eingestellt. Die drei Teile an Informationen, die beim Schritt 238 aktualisiert wurden, zeigen an, daß die Entfer­ nung zwischen dem Berührungspunkt und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, kleiner als die vorbestimmte Entfernung ist, und daß die Steuerungsta­ ste, die derzeitig verarbeitet wird, näher ist, als irgend­ eine bereits verarbeitete aktive Steuerungstaste. Als ein Ergebnis wird die Steuerungstaste, die derzeitig verarbeitet wird, als eine Knapp-Daneben-Steuerungs-Taste eingestellt. Nachdem die drei Funktionen beim Schritt 238 durchgeführt sind, fährt die Software-Routine beim Schritt 234 fort, der die nächste aktive Steuerungstaste zur Verarbeitung aus­ wählt, und kehrt dann zum Schritt 214 (Fig. 7) zurück.
Wenn beim Schritt 236 festgestellt wird, daß die Knapp-Dane­ ben-Flagge eingestellt ist, fährt die Software-Routine beim Schritt 240 fort, bei dem eine Feststellung getroffen wird, ob die Entfernung zwischen dem Berührungsort und der Anzei­ gefläche der Steuerungstaste, die derzeitig verarbeitet wird, kleiner als die Knapp-Daneben-Entfernung minus der vorbestimmten Totzonengröße ist. Die Software-Routine geht nur zum Schritt 240 weiter, wenn der Berührungspunkt kleiner als die vorbestimmte Entfernung r von den Anzeigeflächen von zumindest der folgenden zwei aktiven Steuerungstasten ist: (1) der Steuerungstaste, die derzeitig verarbeitet wird, und (2) einer Knapp-Daneben-Steuerungstaste, die als der Tasten­ index gespeichert ist, und deren Entfernung von dem Berühr­ ungsort als die Knapp-Daneben-Entfernung gespeichert ist. Der Berührungsort kann in die erweiterte Berührungszone einer dieser Steuerungstasten fallen, oder er kann in eine Totzone, die zwischen den zwei definiert ist, fallen, wie durch Bezugnahme auf Fig. 3(b) gezeigt werden wird.
Fig. 3(b) stellt zwei benachbarte aktive Steuerungstasten 17 und 19 dar. Die erweiterten Berührungszonen 20 und 22 sind jeweils für die aktiven Steuerungstasten 17 und 19 definiert und als gestrichelte Linien gezeigt. Eine Totzone 24 mit einer Größe d ist zwischen den erweiterten Berührungszonen 20 und 22 definiert. Drei Berührungsorte 510, 511 und 512 sind gezeigt, von denen jeder mit einer Entfernung von den Anzeigeflächen beider Steuerungstasten 17 und 19 angeordnet ist, die kleiner als die vorbestimmte Entfernung r ist. Es kann jedoch aus Fig. 3(b) gesehen werden, daß die Vorrich­ tung der vorliegenden Erfindung jede dieser Berührungen auf eine im wesentlichen unterschiedliche Art und Weise erkennt. Eine Berührung am Ort 510 fällt in die erweiterte Berüh­ rungszone 22 und zeigt deshalb an, daß die Steuerungstaste 19 ausgewählt wurde. Eine Berührung am Ort 512 fällt in die erweiterte Berührungszone 20 und zeigt deshalb an, daß die Steuerungstaste 17 ausgewählt wurde. Abschließend fällt eine Berührung am Ort 511 in die Totzone 24 zwischen den erwei­ terten Berührungszonen 20 und 22 und zeigt deshalb an, daß keine aktive Steuerungstaste ausgewählt wurde.
Wie oben angemerkt wurde, fährt die Software-Routine nur beim Schritt 240 weiter, wenn die Entfernungen zwischen dem Berührungsort und den Anzeigeflächen der zwei aktiven Steue­ rungstasten jeweils kleiner als die vorbestimmte Entfernung r sind. Die Software-Routine muß deshalb bestimmen, ob der Berührungsort in die Totzone zwischen die Steuerungstasten fällt, und wenn er dies nicht tut, in welche der erweiterten Berührungszonen der Steuerungstasten er hineinfällt. Beim Schritt 240 wird eine Feststellung getroffen, ob die Ent­ fernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, kleiner als die Knapp-Daneben-Distanz minus der Totzonengröße ist. Wenn festgestellt wird, daß die Entfernung kleiner als die Knapp-Daneben-Entfernung minus der Totzonengröße ist, fällt der Berührungsort nicht in die Totzone, und er kann in die erweiterte Berührungszone der Steuerungstaste, die derzeitig verarbeitet wird, fallen. Wenn diese Feststellung getroffen wird, fährt die Software-Routine deshalb beim Schritt 238 fort, bei dem die folgenden drei Funktionen durchgeführt werden: (1) die Knapp-Daneben-Flagge wird eingestellt; (2) die Knapp-Daneben-Entfernung wird aktualisiert, um die Ent­ fernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, anzuzeigen; und (3) der Tastenindex wird aktualisiert, um die Steue­ rungstaste, die derzeitig verarbeitet wird, anzuzeigen. Der Tastenindex und der Knapp-Daneben-Entfernungs-Wert werden beim Schritt 238 aktualisiert, um die Tatsache anzuzeigen, daß der Berührungsort näher an der Steuerungstaste, die der­ zeitig verarbeitet wird, ist, als er an der vorherigen Knapp-Daneben-Taste ist. Deshalb ist die Steuerungstaste, die derzeitig verarbeitet wird, näher an dem Berührungsort als irgendeine vorher verarbeitete Steuerungstaste. Der Ta­ stenindex und die Knapp-Daneben-Entfernung werden beim Schritt 238 aktualisiert, um die Steuerungstaste, die der­ zeitig verarbeitet wird, als die Knapp-Daneben-Steuerungs- Taste einzustellen.
Wenn beim Schritt 240 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steu­ erungstaste, die derzeitig verarbeitet wird, größer als die Knapp-Daneben-Entfernung minus der Totzonengröße ist, fährt die Software-Routine beim Schritt 242 fort, bei dem eine Feststellung getroffen wird, ob die Knapp-Daneben-Entfernung kleiner als die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verar­ beitet wird, minus der Totzonengröße ist. Die Feststellung, die beim Schritt 242 getroffen wird, ist der Feststellung, die beim Schritt 240 getroffen wird, sehr ähnlich. Der Sinn der Feststellung, die beim Schritt 242 getroffen wird, ist es, festzustellen, ob der Berührungsort in die erweiterte Berührungszone der Knapp-Daneben-Steuerungs-Taste fallen kann, die in dem Steuerungstastenindex gespeichert ist, und deren Entfernung als der Knapp-Daneben-Entfernungswert ge­ speichert ist. Wenn beim Schritt 242 festgestellt wird, daß die Knapp-Daneben-Entfernung kleiner als die Entfernung zwi­ schen dem Berührungsort und der Anzeigefläche der Steu­ erungstaste, die derzeitig verarbeitet wird, minus der Tot­ zonengröße ist, fällt der Berührungsort nicht in die Totzo­ ne, die zwischen der Knapp-Daneben-Steuerungstaste und der Steuerungstaste, die derzeitig verarbeitet wird, definiert ist, und der Berührungsort kann in die erweiterte Berühr­ ungszone der Knapp-Daneben-Steuerungs-Taste fallen. Wenn diese Feststellung gemacht wird, ist die Knapp-Daneben-Steu­ erungs-Taste die nähere an dem Berührungsort, als irgendeine der Steuerungstasten, die verarbeitet wurden. Der Steuer­ ungstastenindex und der Knapp-Daneben-Entfernungswert zeigen deshalb bereits die Steuerungstaste, die die nächste zu dem Berührungsort ist, und die nicht aktualisiert werden muß. Folglich fährt die Software-Routine beim Schritt 234 fort, der die nächste aktive Steuerungstaste zur Verarbeitung aus­ wählt und kehrt dann zum Schritt 214 (Fig. 7) zurück.
Wenn beim Schritt 242 festgestellt wird, daß die Knapp-Dane­ ben-Entfernung nicht kleiner als die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, minus der Totzonengröße ist, kann der Berührungsort in eine Totzone fallen, die zwischen der Knapp-Daneben-Steuerungstaste und der Steuerungstaste, die derzeitig verarbeitet wird, definiert ist. Deshalb fährt die Software-Routine beim Schritt 244 fort, bei dem der Tas­ tenindex aktualisiert wird, um anzuzeigen, daß keine Taste ausgewählt wurde. Wie bereits angemerkt, sind bei einem Aus­ führungsbeispiel des Verfahrens der vorliegenden Erfindung Totzonen zwischen den erweiterten Berührungszonen von be­ nachbarten aktiven Steuerungstasten definiert. Wenn der An­ wender einen Ort berührt, der in eine tote Zone zwischen zwei benachbarte aktive Steu­ erungstasten fällt, erkennt das anpassungsfähige Berührungs­ erkennungsverfahren die Berührung nicht als Auswahl irgend­ einer aktiven Steuerungstaste. Wenn die Software-Routine beim Schritt 244 fortfährt, erkennt die Routine deshalb, daß der Berührungsort in eine Totzone zwischen der Steuerungs­ taste, die derzeitig ausgeführt wird, und der Knapp-Dane­ ben-Steuerungstaste fallen kann, und setzt den Tastenindex auf Keine-Taste beim Schritt 244, um anzuzeigen, daß keine aktive Steuerungstaste ausgewählt wurde.
Wie oben angemerkt wurde, kann, wenn die Software-Routine beim Schritt 244 fortfährt, der Berührungsort in eine Tot­ zone zwischen der Steuerungstaste, die derzeitig verarbeitet wird, und der Knapp-Daneben-Steuerungstaste fallen. Die Software-Routine macht jedoch aus Gründen, die mit Bezug auf Fig. 3(c) erklärt werden, keine abschließende Feststellung, ob der Berührungsort in eine Totzone fällt, bis sie die Ver­ arbeitung aller aktiven Steuerungstasten abgeschlossen hat. Fig. 3(c) stellt drei Steuerungstasten 27, 29 bzw. 31 dar, die erweiterte Berührungszonen 32, 34 und 36 haben. Jede der Steuerungstasten ist benachbart zu zwei anderen angeordnet. Totzonen 38, 42 und 40 sind jeweils zwischen den Steuerungs­ tastenpaaren (27, 29), (29, 31) und (27, 31).
Ein Berührungsort 538 ist in Fig. 3(c) gezeigt, der inner­ halb der vorbestimmten Entfernung r der Anzeigeflächen jeder der Steuerungstasten 27, 28 und 31 ist. Als Reaktion auf eine Berührung des Anzeigeberührungsfeldes, die am Berüh­ rungsort 538 auftritt, würde die Software-Routine aus Fig. 6-8 aufgerufen, um festzustellen, welche, wenn überhaupt eine, der Steuerungstasten 27, 29 oder 31 durch die Berühr­ ung ausgewählt wurde. Wie oben beschrieben wurde, ist die Reihenfolge, in der die Steuerungstasten verarbeitet werden, im wesentlichen willkürlich. Deshalb kann die Steuerungsta­ ste 27 die erste Steuerungstaste sein, die verarbeitet wird. Wenn die Steuerungstaste 27 die erste der drei Steuerungs­ tasten wäre, die verarbeitet werden, würde die Steuerungs­ taste 27 als die Knapp-Daneben-Steuerungstaste beim Schritt 238 eingestellt, weil der Berührungsort 538 innerhalb der vorbestimmten Entfernung r von der Anzeigefläche der Steuer­ ungstaste 27 ist. Danach würde, wenn die Steuerungstaste 29 die nächste Steuerungstaste, die verarbeitet wird, wäre, die Software-Routine zum Schritt 244 fortfahren und würde den Tastenindex einstellen, um anzuzeigen, daß keine Taste aus­ gewählt wurde. Der Grund, daß die Software-Routine auf diese Art fortfahren würde, ist, daß der Berührungsort 538 in eine Totzone, die zwischen den erweiterten Berührungszonen dieser Steuerungstasten hergestellt ist, zu fallen erscheint, wenn die Steuerungstaste 27 und 29 die einzigen zwei Steuerungs­ tasten sind, die verarbeitet wurden. Wenn jedoch die Steuer­ ungstaste 31 verarbeitet ist, würde die Software-Routine beim Schritt 240 feststellen, daß die Entfernung zwischen dem Berührungsort 538 und der Anzeigefläche der Steuerungs­ taste 31 kleiner als die Knapp-Daneben-Entfernung (die die Entfernung zwischen dem Berührungsort 538 und der Anzeige­ fläche der näheren der Steuerungstasten 27 oder 29 angibt) minus der Totzonengröße ist. Die Software-Routine würde des­ halb beim Schritt 238 fortfahren, der den Tastenindex ein­ stellen würde, um anzuzeigen, daß die Steuerungstaste 31 ausgewählt wurde.
Wie aus dem Vorangegangenen gesehen werden kann, macht die Software-Routine, die in Fig. 6-8 dargestellt ist, keine abschließende Feststellung, ob der Berührungsort in eine Totzone zwischen zwei aktive Steuerungsschlüssel fällt, bis er jeden aktiven Steuerungsschlüssel verarbeitet hat, weil, wie in Fig. 3(c) gezeigt, ein Berührungsort, der ursprüng­ lich in die Totzone zwischen zwei aktive Steuerungstasten zu fallen erscheint, tatsächlich in die erweiterte Berührungs­ zone einer dritten und näheren Steuerungstaste fallen kann.
Zurückkehrend zu der Beschreibung der Software-Routine, die in Fig. 6 - 8 beschrieben ist, fährt die Routine, nachdem der Tastenindex beim Schritt 244 eingestellt ist, um anzu­ zeigen, daß keine aktive Steuerungstaste ausgewählt wurde, beim Schritt 246 fort, bei dem eine Feststellung getroffen wird, ob die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, kleiner als die Knapp-Daneben-Entfernung ist, und wenn sie es nicht ist, fährt die Routine beim Schritt 234 fort, der die nächste aktive Steuerungstaste zur Verarbeitung aus­ wählt, und kehrt dann zum Schritt 214 (Fig. 7) zurück.
Wenn beim Schritt 246 festgestellt wird, daß die Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steue­ rungstaste, die derzeitig verarbeitet wird, kleiner als die Knapp-Daneben-Entfernung ist, fährt die Software-Routine beim Schritt 248 fort, bei dem der Knapp-Daneben-Entfer­ nungswert aktualisiert wird, um der Entfernung zwischen dem Berührungsort und der Anzeigefläche der Steuerungstaste, die derzeitig verarbeitet wird, zu entsprechen. Der Grund zur Aktualisierung der Knapp-Daneben-Entfernung beim Schritt 248 wird am besten durch Bezugnahme auf die Fig. 9(a)-9(e) beschrieben.
Fig. 9(a)-(e) zeigen drei benachbarte Steuerungstasten 520, 522 und 524. Fig. 9(a) zeigt ebenfalls mit gestrichel­ ten Linien die Flächen 542, 544 und 546, die jeweils von den Anzeigeflächen der Steuerungstasten 520, 522 und 524 um die vorbestimmte Entfernung r in jede Richtung beabstandet sind. Fig. 9(a) zeigt ferner einen Berührungsort 540, der inner­ halb jeder der Flächen 542, 544 und 546 angeordnet ist.
Fig. 9(b) zeigt eine Totzone 536, die zwischen den Steuer­ ungstasten 520 und 524 gebildet ist; Fig. 9(c) stellt eine Totzone 534 dar, die zwischen den Steuerungstasten 522 und 524 gebildet ist; und Fig. 9(d) stellt eine Totzone 532 dar, die zwischen den Steuerungstasten 520 und 522 gebildet ist. Wie oben angemerkt, ist die Reihenfolge, in der die aktiven Steuerungstasten durch die Software-Routine, die in Fig. 6-8 gezeigt ist, verarbeitet wird, im wesentlichen willkürlich. Wenn die Software-Routine als Reaktion auf das Anzeigefeld, das bei dem Berührungsort 540 berührt wird, aufgerufen worden wäre, könnten die Steuerungstasten 520, 522 und 524 in irgendeiner Reihenfolge verarbeitet werden. Wenn die Steuerungstaste 524 als die erste zu verarbeitende Steuerungstaste ausgewählt wäre, würde die Software-Routine beim Schritt 232 feststellen, daß die Entfernung zwischen dem Berührungsort 540 und der Anzeigefläche der Steuerungs­ taste 524 die vorbestimmte Entfernung r nicht überschreitet und die Routine würde beim Schritt 236 fortfahren. Beim Schritt 236 würde festgestellt werden, daß die Knapp-Dane­ ben-Flagge nicht gesetzt ist, nachdem die Steuerungstaste 524 die erste Taste sein würde, die verarbeitet wird, und deshalb würde die Routine zum Schritt 238 fortfahren, bei dem die Steuerungstaste 524 als die Knapp-Daneben-Steuer­ ungstaste eingestellt würde.
Nachdem die Steuerungstaste 524 verarbeitet ist, würde die Software-Routine beim Schritt 234 fortfahren, bei dem die nächste Steuerungstaste zur Verarbeitung ausgewählt würde. Zum Zwecke der Darstellung wird angenommen, daß die Steue­ rungstaste 522 als die nächste zu verarbeitende Steuerungs­ taste ausgesucht ist. Wie aus Fig. 9(c) gesehen werden kann, ist der Berührungsort 540 in der Totzone 534 zwischen den Steuerungstasten 522 und 524. Deshalb würde die Soft­ ware-Routine auf die Art und Weise, wie sie oben beschrieben wurde, beim Schritt 244 fortfahren, bei dem sie den Tasten­ index einstellen würde, um anzuzeigen, daß keine aktive Steuerungstaste ausgewählt wurde. Danach würde die Softwa­ re-Routine beim Schritt 246 fortfahren, bei dem eine Fest­ stellung getroffen würde, ob die Entfernung zwischen dem Berührungsort 540 und der Anzeigefläche der Steuerungstaste 522 kleiner als die Knapp-Daneben-Entfernung (die die Ent­ fernung zwischen dem Berührungsort 540 und der Anzeigefläche der Steuerungstaste 524 anzeigt) ist. Beim Schritt 246 würde festgestellt werden, daß der Berührungsort näher an der An­ zeigefläche der Steuerungstaste 522 ist und die Software- Routine würde deshalb beim Schritt 248 fortfahren, bei dem die Knapp-Daneben-Entfernung aktualisiert würde, um die Entfernung zwischen dem Berührungsort 540 und der Anzeige­ fläche der Steuerungstaste 522 anzuzeigen. Die Aktualisie­ rung der Knapp-Daneben-Entfernung auf diese Art ist be­ deutend, weil sie die nachfolgende Verarbeitung der Steue­ rungstaste 520 beeinflußt.
Wie aus Fig. 9(b) gesehen werden kann, scheint der Be­ ruhrungsort 540, wenn nur die Steuerungstasten 520 und 524 betrachtet werden, in die erweiterte Berührungszone der Steuerungstaste 520 zu fallen, weil er der Steuerungstaste 520 um mehr als die Totzonengröße näher ist. Wie in Fig. 9 (e) jedoch gezeigt ist, fällt der Berührungsort 540, wenn jede der drei Steuerungstasten betrachtet wird, in eine Tot­ zone zwischen die Steuerungstasten 522 und 524 und wählt deshalb keine aktive Steuerungstaste aus.
Wenn die Steuerungstaste 520 durch die Software-Routine der Fig. 6 - 8 verarbeitet wird, stellt die Software-Routine beim Schritt 240 fest, ob die Entfernung zwischen dem Be­ rührungsort 540 und der Anzeigefläche der Steuerungstaste 520 kleiner als die Knapp-Daneben-Entfernung minus der Tot­ zonengröße ist. Wenn die Knapp-Daneben-Entfernung beim Schritt 248 nicht aktualisiert ist, um die Entfernung von der Steuerungstaste 522 anzuzeigen, würde die Software- Routine beim Schritt 240 deshalb feststellen, daß die Ent­ fernung zwischen dem Berührungsort 540 und der Steuerungs­ taste 520 kleiner als die Knapp-Daneben-Entfernung minus der Totzonengröße ist, weil, wie in Fig. 9(b) gezeigt ist, der Berührungsort 540 um mehr als die Totzonengröße näher an der Steuerungstaste 520 als an der Steuerungstaste 524 ist. Als ein Ergebnis würde die Software-Routine beim Schritt 238 fortfahren, der den Tastenindex auf die Steuerungstaste 520 einstellen würde, wodurch angezeigt ist, daß die Steuerungs­ taste 520 durch den Anwender ausgewählt wurde. Dieses Er­ gebnis würde inkorrekt sein, weil, wie in Fig. 9(e) gezeigt ist, der Berührungsort 540 in die Totzone 534 zwischen die Steuerungstasten 522 und 524 fällt, und deshalb keine aktive Steuerungstaste auswählt.
Der Grund, daß die Software-Routine aus den Fig. 6-8 die Knapp-Daneben-Entfernung beim Schritt 248 aktualisiert liegt darin, das Auftreten des oben beschriebenen Fehlers zu verhindern. Wenn die Software-Routine die Steuerungstasten in der oben beschriebenen Reihenfolge verarbeiten würde, würde die Software-Routine, beim Verarbeiten der Steuerungs­ taste 522 die Knapp-Daneben-Entfernung beim Schritt 248 aktualisieren, um die Entfernung zwischen dem Berührungsort 540 und der Anzeigefläche für die Steuerungstaste 522 an­ zeigen, weil, wie in Fig. 9(d) gezeigt ist, die Entfernung zwischen dem Berührungsort 540 und der Anzeigefläche der Steuerungstaste 522 kleiner ist als die Entfernung zu der Anzeigefläche der Steuerungstaste 524. Nachdem die Knapp- Daneben-Entfernung beim Schritt 248 aktualisiert wurde, würde die Software-Routine beim Schritt 234 fortfahren, um die Steuerungstaste 520 zur Verarbeitung auszuwählen. Währ­ end der Verarbeitung der Steuerungstaste 520 würde die Soft­ ware-Routine beim Schritt 240 fortfahren, bei dem eine Fest­ stellung getroffen würde, ob die Entfernung zwischen dem Be­ rührungsort 540 und der Anzeigefläche der Steuerungstaste 520 kleiner als die Knapp-Daneben-Entfernung (die die Ent­ fernung zwischen dem Berührungsort 540 und der Anzeigefläche der Steuerungstaste 522 anzeigt) minus der Totzonengröße ist. Wie in Fig. 9(d) gezeigt ist, ist die Entfernung zwi­ schen dem Berührungsort 540 und der Anzeigefläche der Steue­ rungstaste 522 kleiner als die Entfernung zwischen dem Be­ rührungsort und der Anzeigefläche der Steuerungstaste 520. Deshalb würde die Software-Routine beim Schritt 242 fortfah­ ren, der feststellen wurde, daß die Knapp-Daneben-Entfernung kleiner war als die Entfernung zwischen dem Berührungsort 540 und der Steuerungstaste 520 minus der Totzonengröße. Deshalb würde die Software-Routine fortfahren, die nächste aktive Steuerungstaste ohne Aktualisieren des Tastenindizes zu verarbeiten. Als ein Ergebnis würde der Tastenindex fort­ fahren, die Tatsache zu reflektieren, daß keine aktive Steuerungstaste ausgewählt wurde, was die korrekte Anzeige ist, nachdem der Berührungsort in einer Totzone zwischen zwei aktiven Steuerungstasten ist.
Es wird nun wieder Bezug genommen auf die Software-Routine, die in Fig. 6-8 gezeigt ist. Wie oben beschrieben ist, beginnt die Software-Routine, wenn beim Schritt 202 (Fig. 6) festgestellt ist, daß eine Berührung aufgetreten ist, mit der Verarbeitung der aktiven Steuerungstasten und beendet diese auf eine von zwei Arten. Die erste Art, auf die die Software-Routine beendet wird, resultiert aus einer Fest­ stellung beim Schritt 216 (Fig. 7), daß der Berührungspunkt mit der Steuerungstastenanzeigefläche für eine aktive Steu­ erungstaste übereinstimmt. Wenn diese Feststellung gemacht wird, setzt die Software-Routine den Tastenindex auf die übereinstimmende Steuerungstaste beim Schritt 218, stellt beim Schritt 218 die Warte-auf-Nicht-Berührung-Flagge ein, gibt die Steuerungstaste, die durch den Tastenindex beim Schritt 222 angezeigt ist zurück, und wird dann beendet.
Wenn der Berührungsort nicht mit der Anzeigefläche für ir­ gendeine aktive Steuerungstaste übereinstimmt, wird die Software-Routine nur beendet, nachdem jede der aktiven Steu­ erungstasten verarbeitet wu 04740 00070 552 001000280000000200012000285910462900040 0002004406668 00004 04621rde. Jede aktive Steuerungstaste muß verarbeitet werden, weil, wie oben beschrieben wurde, sogar wenn festgestellt wird, daß der Berührungspunkt in die vorbestimmte Entfernung r von der Anzeigefläche einer ak­ tiven Steuerungstaste fällt, die Software-Routine nicht sicher sein kann, daß der Berührungspunkt in die erweiterte Berührungszone für diese Steuerungstaste fällt. Wenn fest­ gestellt wird, daß der Berührungsort nicht mit der Anzeige­ fläche für die aktive Steuerungstaste, die verarbeitet wird, übereinstimmt, beendet die Software-Routine die Verarbeitung der Steuerungstaste bei irgendeiner von verschiedenen Stufen und wählt dann entweder bei Stufe 226 (Fig. 7) oder bei Stufe 234 (Fig. 8) die nächste aktive Steuerungstaste zur Verarbeitung und kehrt zum Schritt 214 (Fig. 7) zurück, bei dem eine Feststellung getroffen wird, ob die letzte aktive Steuerungstaste verarbeitet wurde.
Wenn beim Schritt 214 festgestellt wird, daß die letzte ak­ tive Steuerungstaste verarbeitet wurde, fährt die Software- Routine beim Schritt 250 (Fig. 7) fort, bei dem eine Fest­ stellung gemacht wird, ob die folgenden zwei Bedingungen wahr sind: (1) die Knapp-Daneben-Flagge ist eingestellt; und (2) der Steuerungstastenindex zeigt nicht an, daß keine ak­ tive Steuerungstaste ausgewählt wurde. Wenn beim Schritt 250 festgestellt wird, daß jede dieser Bedingungen erfüllt ist, erkennt die Software-Routine, daß der Berührungsort in die erweiterte Berührungszone für die Steuerungstaste, die durch den Steuerungstastenindex angezeigt ist, fällt. Deshalb fährt die Software-Routine, wenn die zwei Bedingungen er­ füllt sind, beim Schritt 220 fort, bei dem die Warte-auf- Nicht-Berührung-Flagge auf die oben beschriebene Art und Weise eingestellt wird. Danach gibt die Software-Routine die Steuerungstaste, die durch den Tastenindex beim Schritt 222 angezeigt ist, zurück, und wird dann beendet.
Wenn beim Schritt 250 festgestellt wird, daß eine der zwei oben beschriebenen Bedingungen nicht erfüllt ist, erkennt die Software-Routine, daß keine aktive Steuerungstaste aus­ gewählt wurde. Wenn die Knapp-Daneben-Flagge nicht einge­ stellt ist, fällt der Berührungsort nicht in die vorbestimm­ te Entfernung r von der Anzeigefläche irgendeiner aktiven Steuerungstaste und wählt deshalb keine aktive Steuerungs­ taste aus. Die Knapp-Daneben-Flagge ist jedoch nicht der einzige Zustand, der verwendet wird, um festzustellen, ob eine aktive Steuerungstaste ausgewählt wurde, weil, wenn ein Berührungsort in die Totzone zwischen zwei aktiven Steue­ rungstasten fällt, die Knapp-Daneben-Flagge eingestellt ist, obwohl keine aktive Steuerungstaste ausgewählt wurde. Ein Berührungsort, der in die Totzone zwischen zwei aktiven Steuerungstasten fällt, wird durch die gesetzte Knapp-Dane­ ben-Flagge angezeigt, und der Steuerungstastenindex, der an­ zeigt, daß keine aktive Steuerungstaste ausgewählt wurde. Wenn beim Schritt 250 deshalb festgestellt wird, daß die Knapp-Daneben-Flagge eingestellt ist und der Steuerungs­ tastenindex anzeigt, daß keine aktive Steuerungstaste aus­ gewählt wurde, zeigt dies an, daß der Berührungsort in eine Totzone fällt, und daß keine aktive Steuerungstaste ausge­ wählt wurde.
Wenn beim Schritt 250 festgestellt wird, daß eine der zwei oben beschriebenen Anforderungen nicht erfüllt sind, fährt die Software-Routine beim Schritt 252 fort, der eine Anzeige zurückgibt, daß keine aktive Steuerungstaste ausgewählt wurde, und die Routine wird dann beendet. Es wird darauf hingewiesen, daß, wenn keine aktive Steuerungstaste ausge­ wählt wurde, die Warte-auf-Nicht-Berührung-Flagge nicht ein­ gestellt ist. Als ein Ergebnis kann der Anwender, wenn er mit dem Fühler einen Ort auf dem Anzeigefeld berührt, der nicht in die erweiterte Berührungszone für irgendeine aktive Steuerungstaste fällt, den Fühler entlang dem Anzeigefeld bewegen, bis er in die erweiterte Berührungszone einer ak­ tiven Steuerungstaste wählt und die Bewegung in einer erwei­ terten Berührungszone wird als Auswahl der entsprechenden aktiven Steuerungstaste erkannt. Der Anwender kann deshalb mit dem Fühler das Anzeigefeld berühren und ihn dann an den ordnungsgemäßen Ort zur Auswahl einer erwünschten aktiven Steuerungstaste bewegen, ohne den Meßfühler zuerst von dem Anzeigefeld entfernen zu müssen, weil die Warte-auf-Nicht- Berührung-Flagge, die die Erkennung aller Berührungen an­ zeigt, nicht eingestellt ist, bis eine aktive Steuerungs­ taste ausgewählt wurde.

Claims (6)

1. Verfahren zum Betreiben eines berührungsempfindlichen Anzeigegeräts (10) mit einem oder mehreren aktiven Be­ rührungsfeldern (27, 29, 31), die jeweils eine aktive Steuerungsfunktion innerhalb einer Anzeigefläche (26, 28, 30) anzeigen und eine Auswahl der aktiven Steue­ rungsfunktion bewirken, wenn ein Anwender die Anzeige­ fläche (26, 28, 30) oder eine gegenüber der Anzeigeflä­ che erweiterte Berührungszone (32, 34, 36) berührt,
mit folgenden Schritten:
  • - erstmaliges Festlegen der erweiterten Berührungszonen (32, 34, 36) für jedes aktive Berührungsfeld, wobei die erweiterte Berührungszone (32, 34, 36) jeweils eine Fläche hat, die größer ist als die entsprechende Anzeigefläche (26, 28, 30) des aktiven Berührungsfel­ des (27, 29, 31); und
  • - bei jeder Änderung des Ortes oder des Vorhandenseins aktiver Berührungsfelder (27, 29, 31) Anpassen der Ab­ messungen und der Form der erweiterten Berührungszonen (32, 34, 36) der aktiven Berührungsfelder (27, 29, 31) abhängig von der neuen Anordnung der aktiven Berüh­ rungsfelder auf dem berührungsempfindlichen Anzeige­ gerät (10), wobei Form und Abmessungen der zugehörigen Anzeigeflächen (26, 28, 30) unverändert bleiben.
2. Verfahren nach Anspruch 1, bei dem das berührungsemp­ findliche Anzeigegerät (10) eine Mehrzahl von aktiven Berührungsfeldern (27, 29, 31) einschließt, mit folgen­ dem Schritt:
  • - Festlegen einer erweiterten Berührungszone für jedes aktive Berührungsfeld (27, 29, 31) derart, daß sich die erweiterten Berührungszonen (32, 34, 36) von be­ nachbarten aktiven Berührungsfeldern (27, 29, 31) nicht überlappen, wobei die Abmessung jeder erwei­ terten Berührungszone ausgehend von der Anzeigefläche (26, 28, 30) des zugehörigen aktiven Berührungsfeldes in Richtung eines benachbarten aktiven Berührungsfel­ des kleiner ist als die Abmessung in einer Richtung, in der kein weiteres aktives Berührungsfeld benachbart ist.
3. Verfahren nach Anspruch 1 oder 2, bei dem das berüh­ rungsempfindliche Anzeigegerät (10) eine Mehrzahl von aktiven Berührungsfeldern (27, 29, 31) einschließt, mit folgendem Schritt:
  • - Festlegen der erweiterten Berührungszonen (32, 34, 36) derart, daß Totzonen (38, 40, 42) zwischen den erwei­ terten Berührungszonen (32, 34, 36) von benachbarten aktiven Berührungsfeldern (27, 29, 31) definiert sind.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem die Auswahl einer aktiven Steuerungsfunktion folgende Schritte umfaßt:
  • - Bestimmen (100) eines Ortes auf dem berührungsempfind­ lichen Anzeigegerät (10), an dem das Anzeigegerät (10) berührt wird;
  • - wenn der berührte Ort auf dem Anzeigegerät (10) mit einer Anzeigefläche (26, 28, 30) für ein aktives Be­ rührungsfeld (27, 29, 31) übereinstimmt, Auswählen (104) der durch das aktive Berührungsfeld (27, 29, 31) angezeigten aktiven Steuerungsfunktion; und
  • - wenn der berührte Ort auf dem Anzeigegerät (10) nicht mit einer Anzeigefläche (26, 28, 30) für ein aktives Be­ rührungsfeld (27, 29, 31) übereinstimmt, Durchführen der folgenden Schritte:
  • - Bestimmen (106, 108, 112), ob der berührte Ort auf dem Anzeigegerät (10) in einer erweiterten Berüh­ rungszone (32, 34, 36) eines aktiven Berührungsfel­ des liegt; und
  • - Auswählen (114) der durch das aktive Berührungsfeld (27, 29, 31) angezeigten aktiven Steuerungsfunk­ tion, wenn der berührte Ort auf dem Anzeigegerät (10) in der erweiterten Berührungszone eines ak­ tiven Berührungsfeldes liegt.
5. Vorrichtung zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 4, mit
  • - einem berührungsempfindliche Anzeigegerät (10), das ein oder mehrere aktive Berührungsfelder (27, 29, 31) hat, von denen jedes eine aktive Steuerungsfunktion innerhalb einer Anzeigefläche (26, 28, 30) anzeigt, und das die Auswahl der aktiven Steuerungsfunktion bewirkt, wenn ein Anwender das Anzeigegerät (10) innerhalb der Anzeigefläche (26, 28, 30) berührt; und
  • - einer Steuerungseinrichtung (604), die auf den Anwen­ der reagiert, der das Anzeigegerät (10) innerhalb einer erweiterten Berührungszone (32, 34, 36) eines aktiven Berührungsfeldes (27, 29, 31) berührt, um die zugehörige aktive Steuerungsfunktion auszuwählen,
wobei die erweiterte Berührungszone für jedes aktive Berührungsfeld (27, 29, 31) eine Fläche hat, die grö­ ßer als die entsprechende Anzeigefläche (26, 28, 30) für das aktive Berührungsfeld (27, 29, 31) ist, und
wobei die Steuerungseinrichtung eine Einrichtung (604) zum Anpassen der Abmessungen und der Form der erwei­ terten Berührungszonen (32, 34, 36) für jedes aktive Berührungsfeld (27, 29, 31) bei jeder Änderung des Ortes oder des Vorhandenseins aktiver Berührungsfelder (27, 29, 31) auf dem berührungsempfindlichen Anzeige­ gerät (10) einschließt, wobei die Einrichtung (604) Form und Abmessungen der zugehörigen Anzeigeflächen (26, 28, 30) nicht verändert.
DE4406668A 1993-04-27 1994-03-01 Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts Expired - Fee Related DE4406668C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US5411393A 1993-04-27 1993-04-27

Publications (2)

Publication Number Publication Date
DE4406668A1 DE4406668A1 (de) 1994-11-03
DE4406668C2 true DE4406668C2 (de) 1996-09-12

Family

ID=21988889

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4406668A Expired - Fee Related DE4406668C2 (de) 1993-04-27 1994-03-01 Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts

Country Status (3)

Country Link
US (1) US5627567A (de)
JP (1) JPH06314167A (de)
DE (1) DE4406668C2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19653682A1 (de) * 1996-12-13 1998-06-18 Andreas Bohn Systemsteuerung
DE19654944A1 (de) * 1996-12-13 1998-06-25 Andreas Bohn Systemsteuerung
DE19729086A1 (de) * 1997-07-08 1999-01-14 Stefan Schoepf Bedienerführung

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0713172B1 (de) * 1994-11-15 2002-02-06 Microsoft Corporation Hinausgleitender Schnittstellenbalken
JP3236180B2 (ja) * 1994-12-05 2001-12-10 日本電気株式会社 座標指示装置
KR100260760B1 (ko) * 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US5818451A (en) * 1996-08-12 1998-10-06 International Busienss Machines Corporation Computer programmed soft keyboard system, method and apparatus having user input displacement
JP2000517445A (ja) * 1996-08-28 2000-12-26 ヴィーア・インコーポレイテッド タッチ画面装置及び方法
US6104384A (en) * 1997-09-12 2000-08-15 Ericsson, Inc. Image based keyboard for a small computing device
US6433801B1 (en) * 1997-09-26 2002-08-13 Ericsson Inc. Method and apparatus for using a touch screen display on a portable intelligent communications device
DE19746323A1 (de) * 1997-10-21 1999-04-22 Heidelberger Druckmasch Ag Verfahren und Vorrichtung zum Einschalten einer Maschine
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
WO1999038149A1 (en) 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US6157379A (en) * 1998-05-21 2000-12-05 Ericsson Inc. Apparatus and method of formatting a list for display on a touchscreen
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6424338B1 (en) 1999-09-30 2002-07-23 Gateway, Inc. Speed zone touchpad
US6599244B1 (en) 1999-12-23 2003-07-29 Siemens Medical Solutions, Usa, Inc. Ultrasound system and method for direct manipulation interface
US6784805B2 (en) 2000-03-15 2004-08-31 Intrigue Technologies Inc. State-based remote control system
US8531276B2 (en) 2000-03-15 2013-09-10 Logitech Europe S.A. State-based remote control system
US20010033243A1 (en) * 2000-03-15 2001-10-25 Harris Glen Mclean Online remote control configuration system
US7818691B2 (en) * 2000-05-11 2010-10-19 Nes Stewart Irvine Zeroclick
US7716163B2 (en) 2000-06-06 2010-05-11 Microsoft Corporation Method and system for defining semantic categories and actions
US7770102B1 (en) 2000-06-06 2010-08-03 Microsoft Corporation Method and system for semantically labeling strings and providing actions based on semantically labeled strings
US7788602B2 (en) * 2000-06-06 2010-08-31 Microsoft Corporation Method and system for providing restricted actions for recognized semantic categories
US7712024B2 (en) * 2000-06-06 2010-05-04 Microsoft Corporation Application program interfaces for semantically labeling strings and providing actions based on semantically labeled strings
EP1179768B1 (de) * 2000-08-09 2010-09-01 Siemens Aktiengesellschaft Computersystem mit einem Basisrechner und mehreren Bedienterminals
JP4197220B2 (ja) * 2000-08-17 2008-12-17 アルパイン株式会社 操作装置
US6925611B2 (en) * 2001-01-31 2005-08-02 Microsoft Corporation Navigational interface for mobile and wearable computers
US6967642B2 (en) * 2001-01-31 2005-11-22 Microsoft Corporation Input device with pattern and tactile feedback for computer input and control
DE10119648B4 (de) * 2001-04-20 2013-04-25 Thomson Licensing Anordnung zur Bedienung von fernsehtechnischen Geräten
US7778816B2 (en) 2001-04-24 2010-08-17 Microsoft Corporation Method and system for applying input mode bias
US20020171685A1 (en) * 2001-05-16 2002-11-21 Christianson Eric P. Using icons to represent physical keys in navigation aids
US20020171684A1 (en) * 2001-05-16 2002-11-21 Christianson Eric P. Using icon-based input cues
US6641537B2 (en) * 2001-07-20 2003-11-04 Ge Medical Systems Global Technology Company, Llc Multi-zone transmitter for quantitative ultrasound and image measurement
CA2462058A1 (en) * 2001-09-21 2003-04-03 International Business Machines Corporation Input apparatus, computer apparatus, method for identifying input object, method for identifying input object in keyboard, and computer program
US7176899B2 (en) * 2002-01-31 2007-02-13 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Display screen operation device
US20050108195A1 (en) * 2002-05-07 2005-05-19 Microsoft Corporation Method, system, and apparatus for processing information based on the discovery of semantically labeled strings
US7707496B1 (en) 2002-05-09 2010-04-27 Microsoft Corporation Method, system, and apparatus for converting dates between calendars and languages based upon semantically labeled strings
US7707024B2 (en) 2002-05-23 2010-04-27 Microsoft Corporation Method, system, and apparatus for converting currency values based upon semantically labeled strings
US7742048B1 (en) 2002-05-23 2010-06-22 Microsoft Corporation Method, system, and apparatus for converting numbers based upon semantically labeled strings
JP2003344086A (ja) * 2002-05-28 2003-12-03 Pioneer Electronic Corp タッチパネル装置及び自動車用表示入力装置
US7827546B1 (en) 2002-06-05 2010-11-02 Microsoft Corporation Mechanism for downloading software components from a remote source for use by a local software application
US7356537B2 (en) 2002-06-06 2008-04-08 Microsoft Corporation Providing contextually sensitive tools and help content in computer-generated documents
US7716676B2 (en) * 2002-06-25 2010-05-11 Microsoft Corporation System and method for issuing a message to a program
US7209915B1 (en) 2002-06-28 2007-04-24 Microsoft Corporation Method, system and apparatus for routing a query to one or more providers
US6943777B2 (en) * 2002-10-10 2005-09-13 Motorola, Inc. Electronic device with user interface capability and method therefor
US7783614B2 (en) * 2003-02-13 2010-08-24 Microsoft Corporation Linking elements of a document to corresponding fields, queries and/or procedures in a database
US7103852B2 (en) * 2003-03-10 2006-09-05 International Business Machines Corporation Dynamic resizing of clickable areas of touch screen applications
US7711550B1 (en) 2003-04-29 2010-05-04 Microsoft Corporation Methods and system for recognizing names in a computer-generated document and for providing helpful actions associated with recognized names
US7116314B2 (en) * 2003-05-06 2006-10-03 International Business Machines Corporation Method for distribution wear for a touch entry display
US7558841B2 (en) * 2003-05-14 2009-07-07 Microsoft Corporation Method, system, and computer-readable medium for communicating results to a data query in a computer network
US7739588B2 (en) * 2003-06-27 2010-06-15 Microsoft Corporation Leveraging markup language data for semantically labeling text strings and data and for providing actions based on semantically labeled text strings and data
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP3962718B2 (ja) * 2003-12-01 2007-08-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US20050182617A1 (en) * 2004-02-17 2005-08-18 Microsoft Corporation Methods and systems for providing automated actions on recognized text strings in a computer-generated document
US20050190970A1 (en) * 2004-02-27 2005-09-01 Research In Motion Limited Text input system for a mobile electronic device and methods thereof
JP4148187B2 (ja) * 2004-06-03 2008-09-10 ソニー株式会社 携帯型電子機器、入力操作制御方法及びそのプログラム
JP4445826B2 (ja) * 2004-10-06 2010-04-07 任天堂株式会社 ゲーム装置およびゲームプログラム
DE102006018238A1 (de) 2005-04-20 2007-03-29 Logitech Europe S.A. System und Verfahren zur adaptiven Programmierung einer Fernbedienung
US8122259B2 (en) 2005-09-01 2012-02-21 Bricom Technologies Ltd Systems and algorithms for stateless biometric recognition
US7992085B2 (en) * 2005-09-26 2011-08-02 Microsoft Corporation Lightweight reference user interface
US7788590B2 (en) 2005-09-26 2010-08-31 Microsoft Corporation Lightweight reference user interface
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US8014760B2 (en) 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US8269727B2 (en) * 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US7975242B2 (en) 2007-01-07 2011-07-05 Apple Inc. Portable multifunction device, method, and graphical user interface for conference calling
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168478A1 (en) * 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
CN101743529B (zh) * 2007-07-11 2012-06-13 株式会社爱可信 便携式信息终端及其控制方法
US8063879B2 (en) 2007-12-20 2011-11-22 Research In Motion Limited Method and handheld electronic device including first input component and second touch sensitive input component
US9092134B2 (en) * 2008-02-04 2015-07-28 Nokia Technologies Oy User touch display interface providing an expanded selection area for a user selectable object
JP2009183592A (ja) * 2008-02-08 2009-08-20 Ge Medical Systems Global Technology Co Llc 操作情報入力装置および超音波撮像装置
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8174502B2 (en) * 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
JP5259266B2 (ja) * 2008-06-19 2013-08-07 株式会社東芝 超音波診断装置
DE102008029446A1 (de) * 2008-06-20 2009-12-24 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Steuerung von Funktionen in einem Kraftfahrzeug mit benachbart liegenden Bedienelementen
US20090327974A1 (en) * 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control
JP4752887B2 (ja) * 2008-09-12 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5349493B2 (ja) * 2008-12-04 2013-11-20 三菱電機株式会社 表示入力装置および車載情報装置
US20100161538A1 (en) * 2008-12-22 2010-06-24 Kennedy Jr Thomas William Device for user input
US8566044B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9311112B2 (en) * 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8421762B2 (en) * 2009-09-25 2013-04-16 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US8438500B2 (en) 2009-09-25 2013-05-07 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US8416205B2 (en) * 2009-09-25 2013-04-09 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US20110107258A1 (en) * 2009-11-04 2011-05-05 Tonny Chen Icon/text interface control method
US20110144857A1 (en) * 2009-12-14 2011-06-16 Theodore Charles Wingrove Anticipatory and adaptive automobile hmi
US8793611B2 (en) * 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
JP2011150489A (ja) * 2010-01-20 2011-08-04 Sony Corp 情報処理装置及びプログラム
JP5676113B2 (ja) * 2010-01-27 2015-02-25 京セラ株式会社 携帯電子機器
US9262041B2 (en) * 2010-03-16 2016-02-16 Nokia Technologies Oy Methods and apparatus for determining a selection region
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US10216408B2 (en) * 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
AU2016204284B2 (en) * 2010-06-14 2017-12-07 Apple Inc. Control selection approximation
EP2407865A1 (de) * 2010-07-16 2012-01-18 Gigaset Communications GmbH Adaptive Kalibrierung von Sensorbildschirmen zur Optimierung der Interfacequalität
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US9916006B2 (en) * 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
JP5418440B2 (ja) * 2010-08-13 2014-02-19 カシオ計算機株式会社 入力装置及びプログラム
US8508401B1 (en) 2010-08-31 2013-08-13 Logitech Europe S.A. Delay fixing for command codes in a remote control system
JP5561089B2 (ja) * 2010-10-15 2014-07-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
TW201224857A (en) * 2010-12-15 2012-06-16 Inst Information Industry Electrical device with touch screen, method for adjusting touch positions of software keyboard and computer readable storage medium thereof
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
JP2012247833A (ja) * 2011-05-25 2012-12-13 Pioneer Electronic Corp 情報処理装置及び方法、並びにコンピュータプログラム
US9389764B2 (en) * 2011-05-27 2016-07-12 Microsoft Technology Licensing, Llc Target disambiguation and correction
JP5663427B2 (ja) * 2011-07-26 2015-02-04 京セラドキュメントソリューションズ株式会社 文字入力装置およびそれを備えた画像形成装置
WO2013089012A1 (ja) 2011-12-14 2013-06-20 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
KR101991493B1 (ko) * 2012-01-17 2019-06-20 삼성전자주식회사 터치 인터페이스를 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 휴대 단말
JPWO2013136838A1 (ja) * 2012-03-14 2015-08-03 Necカシオモバイルコミュニケーションズ株式会社 電子機器、情報処理方法およびプログラム
JP5893456B2 (ja) 2012-03-19 2016-03-23 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
US9965130B2 (en) 2012-05-11 2018-05-08 Empire Technology Development Llc Input error remediation
JP2014006883A (ja) * 2012-05-31 2014-01-16 Canon Inc 電子機器及び情報処理装置及びその制御方法
US9001059B2 (en) * 2012-06-08 2015-04-07 Adobe Systems Incorporated Method and apparatus for choosing an intended target element from an imprecise touch on a touch screen display
JP2014016714A (ja) * 2012-07-06 2014-01-30 Sharp Corp 情報表示装置、情報表示方法、情報表示プログラム、および、プログラム記録媒体
CN102880407A (zh) * 2012-07-24 2013-01-16 东莞宇龙通信科技有限公司 应用启动的方法及其通信终端
EP2713259B1 (de) * 2012-09-27 2021-09-15 Wincor Nixdorf International GmbH Verfahren zur Verbesserung der Genauigkeit von Touch-Eingaben auf Touch-Bildschirmen und Produkte mit Touchscreens
JP2014137627A (ja) 2013-01-15 2014-07-28 Sony Corp 入力装置、出力装置および記憶媒体
DE102013001058A1 (de) * 2013-01-22 2014-07-24 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren und Vorrichtung zum Betreiben eines Touchscreens
JP2014186392A (ja) * 2013-03-21 2014-10-02 Fuji Xerox Co Ltd 画像処理装置及びプログラム
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9483176B2 (en) * 2013-07-08 2016-11-01 Samsung Display Co., Ltd. Method and apparatus to reduce display lag of soft keyboard presses
WO2015025194A1 (en) * 2013-08-22 2015-02-26 Sony Corporation Adaptive running mode
JP5843832B2 (ja) * 2013-09-23 2016-01-13 株式会社豊田自動織機 タッチスイッチモジュール
JP6230062B2 (ja) * 2014-01-20 2017-11-15 アルパイン株式会社 情報処理装置
WO2015167511A2 (en) * 2014-04-30 2015-11-05 Empire Technology Development Llc Adjusting tap position on touch screen
JP2015219572A (ja) * 2014-05-14 2015-12-07 東芝アルパイン・オートモティブテクノロジー株式会社 操作装置および光ディスク再生装置
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
CN107111354B (zh) * 2014-09-30 2021-01-26 惠普发展公司,有限责任合伙企业 非故意触摸拒绝
US10235150B2 (en) * 2014-12-04 2019-03-19 Google Technology Holdings LLC System and methods for touch pattern detection and user interface adaptation
KR102321642B1 (ko) * 2014-12-08 2021-11-05 삼성메디슨 주식회사 입력 장치 및 이를 포함하는 의료 영상 장치
CN115048007A (zh) * 2014-12-31 2022-09-13 创新先进技术有限公司 调整界面操作图标分布范围的装置、方法及触摸屏设备
JP6541462B2 (ja) * 2015-06-25 2019-07-10 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5906345B1 (ja) * 2015-08-05 2016-04-20 株式会社Cygames 操作履歴に基づいてタッチ対象を予測するプログラム、電子装置、システム及び制御方法
US10739972B2 (en) 2016-06-10 2020-08-11 Apple Inc. Device, method, and graphical user interface for managing electronic communications
JP6809068B2 (ja) * 2016-09-14 2021-01-06 富士ゼロックス株式会社 処理装置および画像形成装置
JP2018081553A (ja) * 2016-11-17 2018-05-24 レノボ・シンガポール・プライベート・リミテッド 入力装置、情報処理装置、及び入力操作補助シート
US10871896B2 (en) * 2016-12-07 2020-12-22 Bby Solutions, Inc. Touchscreen with three-handed gestures system and method
JP7211772B2 (ja) * 2018-11-13 2023-01-24 フォルシアクラリオン・エレクトロニクス株式会社 領域設定方法、情報機器
US11765131B2 (en) * 2019-10-07 2023-09-19 Schlumberger Technology Corporation Security system and method for pressure control equipment
US11853474B2 (en) * 2022-05-05 2023-12-26 Google Llc Algorithmically adjusting the hit box of icons based on prior gaze and click information

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1121740A (en) * 1966-09-07 1968-07-31 Marconi Co Ltd Improvements in or relating to electrical position resolver arrangements
GB1572680A (en) * 1977-08-11 1980-07-30 United Wire Group Ltd Heat transfer elements
US4310839A (en) * 1979-11-23 1982-01-12 Raytheon Company Interactive display system with touch data entry
GB2099973A (en) * 1981-05-08 1982-12-15 Applegate G Thermal regenerator media
US4587520A (en) * 1983-04-07 1986-05-06 Rca Corporation Cursor controlled page selection in a video display
JPS61290520A (ja) * 1985-06-19 1986-12-20 Nippon Texas Instr Kk 電子機器
US4698460A (en) * 1986-08-26 1987-10-06 Tektronix, Inc. Touch panel system
US4707845A (en) * 1986-08-26 1987-11-17 Tektronix, Inc. Touch panel with automatic nulling
US4698461A (en) * 1986-08-26 1987-10-06 Tektronix, Inc. Touch panel with automatic frequency control
JPS63155223A (ja) * 1986-12-18 1988-06-28 Fujitsu Ltd タツチ座標入力装置
US4806709A (en) * 1987-05-26 1989-02-21 Microtouch Systems, Inc. Method of and apparatus for sensing the location, such as coordinates, of designated points on an electrically sensitive touch-screen surface
USH716H (en) * 1987-11-16 1989-12-05 Parallax induced pointing error avoidance method and means for systems using touch screen overlays
US5189732A (en) * 1987-11-18 1993-02-23 Hitachi, Ltd. Touch panel input apparatus
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
JPH02236713A (ja) * 1989-03-10 1990-09-19 Pioneer Electron Corp 動作指令装置
JPH0649030Y2 (ja) * 1989-04-05 1994-12-12 パイオニア株式会社 データ入力装置
US4992630A (en) * 1989-07-11 1991-02-12 Summagraphics Corporation Digitizer tablet with user customization of stylus proximity and pressure
US5046030A (en) * 1990-02-16 1991-09-03 Videotek Incorporated Method and apparatus for dynamic remapping of video switcher control inputs
US5119079A (en) * 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US5120908A (en) * 1990-11-01 1992-06-09 Gazelle Graphic Systems Inc. Electromagnetic position transducer
US5161535A (en) * 1991-06-24 1992-11-10 Hewlett-Packard Company Medical ultrasound imaging system having a partitioned menu
US5223828A (en) * 1991-08-19 1993-06-29 International Business Machines Corporation Method and system for enabling a blind computer user to handle message boxes in a graphical user interface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19653682A1 (de) * 1996-12-13 1998-06-18 Andreas Bohn Systemsteuerung
DE19654944A1 (de) * 1996-12-13 1998-06-25 Andreas Bohn Systemsteuerung
DE19653682C2 (de) * 1996-12-13 2001-09-06 Twosuns Media Dev Gmbh Steuervorrichtung und -verfahren für mindestens eine Einrichtung eines Raumes, und Raum mit Steuervorrichtung
DE19729086A1 (de) * 1997-07-08 1999-01-14 Stefan Schoepf Bedienerführung

Also Published As

Publication number Publication date
US5627567A (en) 1997-05-06
DE4406668A1 (de) 1994-11-03
JPH06314167A (ja) 1994-11-08

Similar Documents

Publication Publication Date Title
DE4406668C2 (de) Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE69233600T2 (de) Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE112018006617B4 (de) Berührungsfeldvorrichtung
DE60205750T2 (de) Lenkung der aufmerksamkeit des benutzers auf bestimmte icons, denen sich ein zeiger nähert, in interaktiven benutzerschnittstellen
DE60301020T2 (de) Berührungsempfindlicher Bildschirm, System und Verfahren
DE69517086T2 (de) Eingabesystem für Winkelinformation
EP2017756A1 (de) Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE202007019347U1 (de) Bildschirm-Tastfeld-Anzeigevorrichtung
DE102012109058A1 (de) Steuerverfahren und elektronische Einrichtung
DE69820554T2 (de) Eingabevorrichtung für Rechner zum automatischen Umschalten zwischen 3D- und 2D-Betriebsarten, sowie Verfahren zur Interaktion mit einem Bildschirm
DE4121551A1 (de) Informationsverarbeitungsgeraet
DE112009002462T5 (de) Anzeigeeingabeeinrichtung
DE102016204473A1 (de) Verfahren zum unterstützen einer benutzereingabe mit berührungsanzeige
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE112016006646T5 (de) Koordinatenkorrekturvorrichtung, koordinatenkorrekturverfahren und koordinatenkorrekturprogramm
EP3400515A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102017218120A1 (de) Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
DE112014007127T5 (de) Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems
DE112020001686T5 (de) Schaltung, system und verfahren zur erfassung des zustands eines stifts
DE102012219736A1 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE112018007216B4 (de) Eingabesteuerungsvorrichtung, Anzeigeeingabevorrichtung und Eingabesteuerungsverfahren
DE102016113182A1 (de) Eingabevorrichtung
DE19624279A1 (de) Mehrfacheingabevorrichtung
EP1881398B1 (de) Verfahren zur Positionierung eines Cursors auf einem berührungsempfindlichen Bildschirm
DE19830958B4 (de) Koordinateneingabevorrichtung zur genauen Erfassung von Koordinaten eines Punktes auf einer vergleichsweise großen Schreibtafel

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: AGILENT TECHNOLOGIES, INC. (N.D.GES.D.STAATES DELA

8327 Change in the person/name/address of the patent owner

Owner name: AGILENT TECHNOLOGIES, INC. (N.D.GES.D. STAATES, US

8339 Ceased/non-payment of the annual fee