DE60124549T2 - Kamerabasiertes beruehrungssystem - Google Patents

Kamerabasiertes beruehrungssystem Download PDF

Info

Publication number
DE60124549T2
DE60124549T2 DE60124549T DE60124549T DE60124549T2 DE 60124549 T2 DE60124549 T2 DE 60124549T2 DE 60124549 T DE60124549 T DE 60124549T DE 60124549 T DE60124549 T DE 60124549T DE 60124549 T2 DE60124549 T2 DE 60124549T2
Authority
DE
Germany
Prior art keywords
pointer
touch
cameras
pixel
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60124549T
Other languages
English (en)
Other versions
DE60124549D1 (de
Inventor
Gerald Calgary MORRISON
David Calgary HOLMGREN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26968623&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60124549(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US09/610,481 external-priority patent/US6803906B1/en
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Application granted granted Critical
Publication of DE60124549D1 publication Critical patent/DE60124549D1/de
Publication of DE60124549T2 publication Critical patent/DE60124549T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich allgemein auf Berührungssysteme, insbesondere auf ein Berührungssystem auf Kamerabasis.
  • Technischer Hintergrund
  • Berührungssysteme sind durch den Stand der Technik bekannt und umfassen üblicherweise einen Berührungsbildschirm, der eine Berührungsfläche hat, auf welcher Kontakte ausgebildet sind, wobei ein Zeiger verwendet wird, um eine Benutzereingabe zu erzeugen. Zeigerkontakte mit der Berührungsfläche werden ermittelt und verwendet, um ein entsprechendes Ausgangssignal in Abhängigkeit von den Bereichen der Berührungsfläche zu erzeugen, wo die Kontakte gebildet werden. Es gibt grundsätzlich zwei allgemeine Arten von Berührungssystemen, die verfügbar sind, die allgemein als "aktive" Berührungssysteme und als "passive" Berührungssysteme klassifiziert werden können.
  • Aktive Berührungssysteme erlauben es einem Benutzer, eine Benutzereingabe zu erzeugen, wobei die Berührungsfläche mit einem speziellen Zeiger kontaktiert wird, der üblicherweise irgendeine Form einer auf einer Leitplatte befindlichen Spannungsquelle erfordert, üblicherweise Batterien. Der Spezialzeiger emittiert Signale, beispielsweise Infrarotlicht, sichtbares Licht, Ultraschallfrequenzen, elektro-magnetische Frequenzen usw., welche die Berührungsfläche aktivieren.
  • Passive Berührungssysteme erlauben es einem Benutzer, eine Benutzereingabe zu erzeugen, wobei die Berührungsfläche mit einem passiven Zeiger kontaktiert wird und erfordern nicht die Verwendung eines Spezialzeigers, um die Berührungsfläche zu aktivieren. Ein passiver Zeiger kann ein Finger, ein Zylinder aus irgendeinem Material oder irgendein geeignetes Objekt sein, welches verwendet werden kann, einen bestimmten Bereich von Interesse auf der Berührungsfläche zu kontaktieren.
  • Passive Berührungssysteme liefern Vorteile gegenüber aktiven Berührungssystemen dahingehend, dass irgendeine geeignete Zeigereinrichtung, einschließlich Finger eines Benutzers, als Zeiger verwendet werden können, um die Berührungsfläche zu kontaktieren. Als Ergebnis kann die Benutzereingabe leicht erzeugt werden. Da außerdem spezielle aktive Zeiger bei passiven Berührungssystemen nicht erforderlich sind, gehen Batteriespannungspegel und/oder Zeigerbeschädigung, Diebstahl oder Zeigerversatz die Benutzer nichts an.
  • Passive Berührungssysteme haben eine Anzahl von Anwendungen, die sich auf Computerbetrieb und Videoanzeige beziehen. Bei einer interaktiven Anwendung beispielsweise, wie in der US-PS 5 448 263 (Martin) offenbart ist, die dem Anmelder der vorliegenden Erfindung zugeteilt ist, wird ein passives Berührungssystem mit einem Computer gekoppelt, und die Computeranzeige wird auf der Berührungsfläche des Berührungsbildschirms dargestellt. Die Koordinaten entsprechend speziellen Stellen auf dem Berührungsbildschirm werden auf der Computeranzeige abgebildet. Wenn ein Benutzer die Berührungsfläche kontaktiert, werden die Koordinaten der Kontaktperson zurück zum Computer geführt und auf der Computeranzeige abgebildet, um es dem Benutzer zu erlauben, den Computer in einer Weise ähnlich zu betreiben, wie eine Computermaus verwendet wird, indem lediglich die Berührungsfläche kontaktiert wird. Die Koordinaten, welche zum Computer zurückgeführt werden, können außerdem bei einer Anwendung aufgezeichnet werden und zu einer späteren Zeit wieder angezeigt werden. Das Aufzeichnen von Kontaktkoordinaten wird üblicherweise durchgeführt, wenn gewünscht wird, Information aufzuzeichnen, welche durch den Benutzer auf die Berührungsfläche geschrieben oder gezeichnet wird.
  • Die Auflösung eines passiven Berührungsbildschirms bestimmt, ob das Berührungssystem zum Aufzeichnen von Information geeignet ist, welche auf den Berührungsbildschirm geschrieben oder gezeichnet ist, oder lediglich nützlich ist, um Bereiche auf dem Bildschirm auszuwählen, welche auf Bereiche auf dem Computer oder der Videoanzeige abgebildet werden, um den Computer oder die Videoanzeige zu handhaben. Die Auflösung wird üblicherweise in Bildpunkten pro Zoll (DPI) gemessen. DPI ist auf die Größe des Bildschirms bezogen und auf die Abtastfähigkeit der Hardware und Software des Berührungssystems, das verwendet wird, Kontakte auf der Berührungsfläche zu ermitteln.
  • Passive Berührungsbildschirme niedriger Auflösung haben lediglich genug Bildpunkte pro Zoll, um Kontakte auf der Berührungsfläche innerhalb einer großen Gruppe von Pixeln zu ermitteln, welche durch den Computer oder die Videoanzeige angezeigt werden. Daher sind diese passiven Berührungsbildschirme niedriger Auflösung lediglich zum Handhaben des Computers oder der Videoanzeige nützlich.
  • Dagegen haben hochauflösende passive Berührungsbildschirme genügend Bildpunkte pro Zoll, um Kontakte zu ermitteln, die proportional zu einer kleinen Anzahl von Pixeln oder Sub-Pixeln des Computers oder der Videoanzeige sind. Ein Erfordernis für hochauflösende Berührungsbildschirme ist jedoch die Fähigkeit zu ermitteln, wenn der Zeiger in Kontakt mit der Berührungsfläche ist. Dies ist zum Schreiben, Zeichnen, für Maus-Klick-Betätigungen usw. notwendig. Ohne die Fähigkeit, den Zeigerkontakt mit dem Berührungsbildschirm zu ermitteln, würde das Schreiben und Zeichnen ein unaufhörlicher Betrieb sein, und Maus-Klicks würden nicht möglich sein, wodurch eine Computeranzeigehandhabung virtuell unmöglich wäre. Ein zweites Erfordernis ist die Fähigkeit, zu ermitteln, wenn der Zeiger über der Berührungsfläche "schwebt". Obwohl für das Schreiben oder Zeichnen nicht erforderlich, verwenden heutige Computerbetriebssysteme zunehmend schwebende Information, um Computer- oder Videoanzeigen oder pop-up-Informationsboxen zu handhaben.
  • Passive Berührungsbildschirme sind üblicherweise in Art eines analogen Widerstands, einer akustischen Oberflächenwelle (SAW) oder kapazitiv. Unglücklicherweise leiden jedoch diese Berührungsbildschirme an einer Anzahl von Problemen oder Nachteilen, die beschrieben werden.
  • Analoge Widerstandsbildschirme haben üblicherweise eine hohe Auflösung. In Abhängigkeit von der Komplexität des Berührungssystems kann die Auflösung des Berührungsbildschirms 4096 × 4096 DPI oder höher erzeugen. Analoge Widerstandsbildschirme sind so aufgebaut, dass zwei flexible Folien verwendet werden, welche mit einem Widerstandsmaterial überzogen sind und sandwichartig angeordnet sind. Diese Folien kommen nicht miteinander in Kontakt, bis ein Kontakt ausgeführt wird. Die Folien werden üblicherweise durch isolierende Mikrodots oder durch einen isolierten Zwischenraum getrennt gehalten. Die Folien werden aus ITO hergestellt, welches am meisten transparent ist. Somit bringt der Berührungsbildschirm eine gewisse Bildverzerrung, jedoch sehr geringe Parallaxe ein.
  • Während des Betriebs eines analogen passiven Widerstandsbildschirms wird ein gleichförmiger Spannungsgradient in einer Richtung längs einer ersten der Folien angelegt. Die zweite Folie misst die Spannung längs der ersten Folie, wenn die beiden Folien einander kontaktieren, als Ergebnis eines Kontaktes, der auf der Berührungsfläche ausgeführt wird. Da der Spannungsgradient der ersten Folie auf den Abstand längs der ersten Folie übersetzt werden kann, ist die gemessene Spannung proportional zur Position des Kontakts auf der Berührungsfläche. Wenn eine Kontaktkoordinate auf der ersten Folie erfasst wird, wird der gleichförmige Spannungsgradient dann an die zweite Folie angelegt und die erste Folie misst die Spannung längs der zweiten Folie. Der Spannungsgradient der zweiten Folie ist proportional zum Abstand längs der zweiten Folie. Diese beiden Kontaktkoordinaten zeigen die X-Y-Position des Kontakts auf der Berührungsfläche in einem kartesischen Koordinatensystem.
  • Da leider mechanischer Druck erforderlich ist, beide Folien in Kontakt zu bringen, können analoge Widerstandsberührungsbildschirme lediglich einen Kontakt ermitteln, wenn es ausreichenden Druck gibt, um die beiden Folien zusammen zu bringen. Analoge passive Widerstandsbildschirme können außerdem nicht ermitteln, wenn ein Zeiger auf der Berührungsfläche schwebt. Daher können im Fall von analogen Widerstandsberührungsbildschirmen Kontaktereignisse und Positionen lediglich ermittelt werden, wenn tatsächliche Kontakte mit der Berührungsfläche getätigt werden.
  • Akustische Oberflächenwellen-Berührungsbildschirme (SAW) liefern üblicherweise Medienauflösung und sind zum Aufzeichnen eines Schreibens mit guter Qualität nicht geeignet. SAW-Berührungsbildschirme verwenden Umformer auf den Grenzen einer Glasfläche, um das Glas in Schwingung zu versetzen, und erzeugen akustische Wellen, welche sich leicht über der Glasfläche bewegen. Wenn ein Kontakt auf der Glasfläche getätigt wird, werden die akustischen Wellen zurück reflektiert und die Kontaktposition wird von dem Vorzeichen der reflektierten akustischen Wellen bestimmt.
  • Unglücklicherweise zeigen SAW-Berührungsbildschirme eine bemerkenswerte Parallaxe aufgrund der Dicke des vibrierenden Glases, welches über der Fläche der Video- oder Computeranzeige angeordnet ist. Außerdem können Kontaktereignisse und Positionen nicht ermittelt werden, wenn aktuelle Kontakte mit der Glasfläche getätigt werden. Außerdem ändern sich SAW-Berührungsbildschirme nicht über eine Diagonale über wenige Feet hinaus maßstabsgetreu.
  • Kapazitive Berührungsbildschirme liefern niedrige Auflösung, da Kontakte lediglich in großen Bereichen (ungefähr 12,7 mm × 12,7 mm (1/2'' × 1/2'')) bestimmt werden können. Als Ergebnisse können kapazitive Berührungsbildschirme zum Aufzeichnen des Schreibens oder Zeichnens nicht verwendet werden, sondern sind zum Auswählen von Bereichen auf dem Berührungsbildschirm geeignet, welche durch Computer erzeugten Tasten entsprechen, welche auf der Videoanzeige oder Computeranzeige angezeigt werden. Kapazitive Berührungsbildschirmeleiden auch an Nachteilen dahingehend, dass sie gegenüber der Temperatur und der Feuchtigkeit empfindlich sind. Ähnlich wie die analogen Widerstandsberührungsbildschirme und die SAW-Berührungsbildschirme können kapazitive lediglich Kontaktereignisse und Positionen ermitteln, wenn tatsächliche Kontakte mit der Berührungsfläche getätigt werden.
  • Die Skalierbarkeit passiver Berührungsbildschirme ist wichtig, da der Wunsch nach größeren elektronischen Digitalisiergeräten ansteigt. Während Digitalisiergeräte einmal kleine Desktop-Anwendungen waren, haben sie heute ihren Weg in elektronische Weißwandtafeln-Anwendungen gefunden. Die Notwendigkeit, eine passive berührungsempfindliche "Wand" zu bauen, wurde zu einem Erfordernis für neue Berührungsbildschirmanwendun gen. Existierende passive Berührungsbildschirme der oben erläuterten Arten haben alle eine begrenzte maximale Größe, wo sie noch funktionsfähig sind.
  • Die WO99/40562 bezieht sich auf ein Berührungsbildschirmsystem für einen Videokamera-Computer, wo ein Verfahren und System zum Eingeben von Daten in einen Computer über einen Computermonitorbildschirm offenbart ist. Eine Standard-PC-Videokamera, welche über einem Computerbildschirm befestigt ist, überwacht den Bereich unmittelbar vor dem Bildschirm. Ein optisches Beobachtungssystem, welches unterhalb der Videokamera angeordnet ist, bewirkt, dass zwei Bilder des Bildschirms im Vordergrund durch die Kamera simultan aufgezeichnet werden, gesehen von einem unterschiedlichen Winkel. Dieser Stand der Technik wird im Oberbegriff der Patentansprüche 1 und 19 zum Ausdruck gebracht.
  • Die US 4 746 770 bezieht sich auf ein Verfahren und eine Vorrichtung zum Isolieren und Handhaben von Grafikobjekten auf einem Computer-Videomonitor. Ein Rahmenteil arbeitet funktionsmäßig mit mehreren optischen Sensoren und mehreren lichtverdeckenden Objekten zusammen, die dazu neigen, einen Bereich des Lichts normalerweise zu stören, welches durch die optischen Sensoren normalerweise empfangen wird.
  • Die DE 198 10 452 bezieht sich auf ein optisches Digitalisiergerät zum Bestimmen einer Position eines Zeigerobjekts, wobei ein Licht projiziert wird und welches auf einer Koordinatenebene angeordnet ist. Im optischen Digitalisiergerät ist ein Detektor auf einem Umfang der Koordinatenebene angeordnet und besitzt ein Sichtfeld, welches die Koordinatenebene überdeckt, um das Licht zu empfangen, welches vom Zeigerobjekt projiziert wird und um das empfangene Licht in ein elektrisches Signal umzusetzen.
  • Wie man ersehen kann, sind Verbesserungen in Bezug auf passive Berührungssysteme wünschenswert. Es ist daher eine Aufgabe der vorliegenden Erfindung, ein neuartiges Berührungssystem auf Kamerabasis bereitzustellen.
  • Offenbarung der Erfindung
  • Die Erfindung ist in den Patentansprüchen 1 und 19 angegeben.
  • Vorzugsweise sind die zumindest beiden Kameras Digitalkameras, die Blickfelder haben, die allgemein längs der Ebene der Berührungsfläche schauen. Die Bilddaten, welche durch jede Digitalkamera erzeugt werden, umfassen eine Zeigermittellinie x und eine Zeigerspitzenposition z. Eine jede der Digitalkameras umfasst eine Pixelmatrix, welche auswählbare Pixelreihen hat. Pixelintensitäten von Pixeln in den auswählbaren Pixelreihen werden während der Erzeugung der Bilddaten verwendet. Vorzugsweise werden Pixelintensitäten von Pixeln in einem Bereich von Interesse innerhalb der auswählbaren Pixelreihen während der Erzeugung der Bilddaten verwendet.
  • Bei einer bevorzugten Ausführungsform umfasst eine jede der Digitalkameras einen CMOS-Bildsensor und einen Digitalsignalprozessor. Der Digitalsignalprozessor empfängt das Bild, welches vom Bildsensor ausgegeben wird, und führt eine Suchzeigerroutine aus, um zu bestimmen, ob ein Zeiger in jedem Bild ist, welches durch die Digitalkamera erfasst wird, und, wenn dies so ist, die Mittellinie des Zeigers. Es wird außerdem bevorzugt, dass der Digitalsignalprozessor jeder Digitalkamera eine Aktualisierungshintergrund-Bildroutine ausführt, um das Hintergrundbild zu aktualisieren, nachdem jedes Bild erfasst ist. Vorzugsweise bestimmt der Digitalsignalprozessor jeder Digitalkamera außerdem die Unterschiede zwischen dem erfassten Bild und dem Hintergrundbild, um Lichtänderungszustände zu ermitteln.
  • Die vorliegende Erfindung liefert Vorteile dahingehend, dass das passive Berührungssystem hochauflösend ist, und erlaubt aktuelle Zeigerkontakte mit der Berührungsfläche sowie das Schweben von Zeigern über der Berührungsfläche, das zu ermitteln ist, und entsprechende erzeugte Ausgabe. Außerdem liefert das vorliegende passive Berührungssystem Vorteile dahingehend, dass es nicht an einer Parallaxe leidet, einer Bildverzerrung, an Zeigerpositionseinschränkungen, an Bildprojektion und Skalierbarkeitsproblemen, welche mit den bekannten passiven Berührungssystemen in Verbindung stehen.
  • Außerdem liefert die vorliegende Erfindung Vorteile dahingehend, dass, da CMOS-Digitalkameras verwendet werden, beliebige Pixelreihen in der Digitalkamera-Pixelmatrix ausgewählt werden können. Die ermöglicht es, dass die Rahmenraten der Digitalkameras signifikant vergrößert werden. Da außerdem die Pixelreihen beliebig ausgewählt werden können, können die Pixelreihen für eine größere Dauer für vorgegebene Digitalkamera-Rahmenraten belichtet sein, was einen guten Betrieb in dunklen Räumen wie auch in gut beleuchteten Räumen erlaubt.
  • Kurzbeschreibung der Zeichnungen
  • Die Ausführungsformen der erliegenden Erfindung werden nun ausführlicher mit Hilfe der beiliegenden Zeichnungen beschrieben, in denen:
  • 1 ein schematisches Diagramm eines Berührungssystems auf Kamerabasis gemäß der vorliegenden Erfindung ist;
  • 2 eine isometrische Ansicht eines Berührungsbildschirms ist, der einen Teil des Berührungssystems von 1 bildet;
  • 3 eine isometrische Ansicht eines Eckenbereichs des Berührungsbildschirms von 2 ist;
  • 4 ein schematisches Diagramm einer Digitalkamera ist, welches einen Teil des Berührungsbildschirms von 2 bildet;
  • 5 ein schematisches Diagramm einer Hauptsteuerung ist, welche einen Teil des Berührungssystems von 1 bildet;
  • 6 ein Flussdiagramm ist, welches die Schritte zeigt, die während der Ausführung einer Prozess-Rahmen-Routine durchgeführt werden;
  • 7 ein Flussdiagramm ist, welches die Schritte zeigt, die während der Ausführung einer Segment-Zeiger-Routine durchgeführt werden;
  • 8 ein Flussdiagramm ist, welches die Schritte zeigt, die während der Ausführung einer Such-Zeiger-Routine durchgeführt werden;
  • 9 ein Bild zeigt, welches durch eine Digitalkamera und einen Pixelhilfssatz des Bilds erfasst wird, das verarbeitet wird;
  • 10 einen Bereich von Interesse (ROI) innerhalb des Pixelhilfssatzes von 9 zeigt;
  • 11 die Triangulations-Geometrie zeigt, die verwendet wird, eine Zeigerkontaktposition auf der Berührungsfläche des Berührungsbildschirms zu berechnen, der in 2 gezeigt ist;
  • 12 ein Bild zeigt, welches durch eine Digitalkamera erfasst wird, einschließlich der Zeigerspitze und von deren Mittellinie;
  • 13 den Zeigerkontakt und das Zeigerschweben für unterschiedliche Orientierungen des Zeigers zeigt;
  • 14 ein Bild der Berührungsfläche des Berührungsbildschirms gesehen durch eine Digitalkamera ist;
  • 15 und 16 die Ergebnisse einer Matlab-Simulation der Zeigerführung unter Verwendung eines Kalman-Filters zeigt; und
  • 17a bis 17d die Ergebnisse einer weiteren Matlab-Simulation der Zeigerführung unter Verwendung eines Kalman-Filters zeigen.
  • Bevorzugteste Ausführungsart der Erfindung
  • Wendet man sich nun 1 zu, so ist dort ein Berührungssystem auf Kamerabasis gemäß der vorliegenden Erfindung gezeigt und allgemein mit dem Bezugszeichen 50 bezeichnet. Wie man ersehen kann, umfasst das Berührungssystem 50 einen Berührungsbild schirm 52, der mit einem Digitalsignalprozessor (DSP) basierend auf einer Hauptsteuerung 54 gekoppelt. Die Hauptsteuerung 54 ist außerdem mit einem Computer 56 gekoppelt. Der Computer 56 führt ein oder mehrere Anwendungsprogramme aus und liefert eine Anzeigeausgabe, welche auf dem Berührungsbildschirm 52 über einen Projektor 58 gezeigt wird. Der Berührungsbildschirm 52, die Hauptsteuerung 54, der Computer 56 und der Projektor 58 bilden eine geschlossene Schleife, so dass Benutzerkontakte mit dem Berührungsbildschirm 52 wie Schreiben oder Zeichnen aufgezeichnet werden können, oder verwendet werden, um das Ausführen von Anwendungsprogrammen zu steuern, welche durch den Computer 56 ausgeführt werden.
  • 2 bis 4 zeigen den Berührungsbildschirm 52 besser. Der Berührungsbildschirm 52 umfasst eine Berührungsfläche 60, die durch einen rechteckigen Rahmen 62 eingegrenzt ist. Die Berührungsfläche 60 ist in Form einer rechteckigen ebenen Folie aus passivem Material ausgebildet. CMOS-Digitalkameras 63 auf DSP-Basis sind mit jeder Ecke des Berührungsbildschirms 52 verknüpft. Jede Digitalkamera 63 ist auf einer Rahmenbaugruppe 64 befestigt. Jede Rahmenbaugruppe 64 umfasst eine abgewinkelte Lagerplatte 66, auf welcher die Digitalkamera 63 befestigt ist. Lagerrahmenelemente 70 und 72 sind auf der Platte 66 über Pfosten 74 befestigt und sichern die Platte 66 am Rahmen 62.
  • Jede Digitalkamera 63 umfasst einen zweidimensionalen CMOS-Bildsensor und eine verknüpfte Linsenbaugruppe 80, einen FIFO-Puffer 62, der mit dem Bildsensor und der Linsenbaugruppe 80 über einen Datenbus gekoppelt ist, und einen Digitalsignalprozessor (DSP) 64, der mit dem FIFO 82 über einen Datenbus und mit der Bildsensor- und Linsenbaugruppe 80 über einen Steuerbus gekoppelt ist. Ein Boot-EPROM 86 und ein Spannungsversorgungs-Hilfssystem 88 sind ebenfalls enthalten.
  • Bei der vorliegenden Ausführungsform ist der CMOS-Kamerabildsensor ein Photobit-PB300-Bildsensor, der für eine 20×640-Pixelhilfsmatrix konfiguriert ist, welcher betrieben werden kann, Bildrahmen mit Raten über 200 Rahmen pro Sekunde einzufangen, da beliebige Pixelreihen ausgewählt werden können. Da außerdem die Pixelreihen beliebige ausgewählt werden können, kann die Pixelhilfsmatrix für eine größere Dauer für eine bestimmte Digitalkamera-Rahmenrate belichtet werden, um einen guten Betrieb in dunklen Räumen sowie in hellen erleuchteten Räumen zu erlauben. Der FIFO-Puffer 82 wird von Cypress unter der Teilnummer CA7C4211V hergestellt, und der DSP 84 wird durch Analog Devices unter der Teilnummer ADSP2185M hergestellt.
  • Der DSP 84 liefert Steuerinformation über den Steuerbus zur Bildsensor- und Linsenbaugruppe 80. Die Steuerinformation erlaubt, dass der DSP 84 Parameter der Bildsensor- und Linsenbaugruppe 80 steuert, beispielsweise die Belichtung, Verstärkung, Matrixkonfiguration, Reset und Initialisierung. Der DSP 84 liefert außerdem Taktsignale zur Bildsensor- und Linsenbaugruppe 80, um die Rahmenrate der Bildsensor- und Linsenbaugruppe 80 zu steuern.
  • Der Winkel der Platte 66 wird so gewählt, dass das Blickfeld (FOV) jeder Digitalkamera 63 sich über einen bestimmten Umfangsrand der Berührungsfläche 60 hinaus erstreckt, wie in 11 gezeigt ist. Auf diese Weise ist die gesamte Berührungsfläche 60 innerhalb des Blickfelds der Digitalkameras 63.
  • Die Hauptsteuerung 54 ist am besten in 5 gezeigt und besitzt einen DSP 90, einen Boot-EPROM 92, eine serielle Leitungsansteuerung 94 und ein Spannungsersorgungs-Hilfssystem 95. Der DSP 90 kommuniziert mit den DSPs 84 der Digitalkameras 63 über einen Datenbus über einen seriellen Port 96 und kommuniziert mit dem Computer 56 über einen Datenbus über einen seriellen Port 98 und der seriellen Leitungsansteuerung 94. Bei dieser Ausführungsform wird der DSP 90 ebenfalls durch Analog Devices unter der Teilnummer ADSP2185M hergestellt. Die serielle Leitungsansteuerung 94 wird durch Analog Devices unter der Teilnummer ADM222 hergestellt.
  • Die Hauptsteuerung 54 und jede Digitalkamera 63 folgen einem Kommunikationsprotokoll, welches bidirektionale Kommunikation über ein gemeinsames serielles Kabel ähnlich einem universellen seriellen Bus (USB) ermöglicht. Die Übertragungsbreite ist in zweiunddreißig (32) 16-Bitkanäle unterteilt. Von den 32 Kanälen werden sechs (6) Kanäle jedem der DSPs 84 in den Digitalkameras 63 zugeteilt und der DSP 90 in der Hauptsteuerung 54 und die beiden verbleibenden Kanäle bleiben unbenutzt. Die Hauptsteuerung 54 überwacht die vierundzwanzig (24) Kanäle, welche den DSPs 84 zugeteilt sind, während die DSPs 84 die sechs (6) Kanäle, welche dem DSP 90 der Hauptsteuerung 54 zugeteilt sind, überwachen. Kommunikationen zwischen der Hauptsteuerung 54 und den Digitalkameras 63 werden als Hintergrundprozesse als Antwort auf Interrupts durchgeführt.
  • Der allgemeine Betrieb des Berührungssystems 50 wird nun beschrieben. Jede Digitalkamera 63 erfasst Bilder der Berührungsfläche 60 innerhalb des Blickfelds von ihrer Bildsensor- und Linsenbaugruppe 80 mit einer gewünschten Rahmenrate und verarbeitet jedes erfasste Bild, um zu bestimmen, ob ein Zeiger im erfassten Bild ist. Wenn ein Zeiger im erfassten Bild ist, wird das Bild weiter verarbeitet, um Kenndaten des Zeigers zu bestimmen, der über der Berührungsfläche 60 schwebt oder diese kontaktiert. Die Zeigerinformationspakete (PIPs) einschließlich Zeigerkenndaten, Status- und/oder Diagnostikinformation werden dann durch die Digitalkameras 63 erzeugt, und die PIPs werden zur Übertragung zur Hauptsteuerung 54 aufgereiht. Die Digitalkameras 63 empfangen außerdem Befehls-PIPs, welche durch die Hauptsteuerung 54 erzeugt werden, und antworten darauf.
  • Die Hauptsteuerung 54 befragt die Digitalkameras 63 nach PIPs. Wenn die PIPs Zeigerkenndateninformation aufweisen, trianguliert die Hauptsteuerung 54 Dreieckszeigerkenndaten in den PIPs, um die Position des Zeigers in Bezug auf die Berührungsfläche 60 in kartesischen Rechteckkoordinaten zu bestimmen. Die Hauptsteuerung 54 wiederum überträgt die berechneten Zeigerpositionsdaten, die Status- und/oder Diagnostikinformation zum Personalcomputer 56. Auf diese Weise können die Zeigerpositionsdaten, welche zum Personalcomputer 56 übertragen werden, als Schreibdaten oder Zeichnungsdaten aufgezeichnet werden, oder können verwendet werden, die Ausführung von Anwendungsprogrammen zu steuern, welche durch den Computer 56 ausgeführt werden. Der Computer 56 aktualisiert außerdem die Anzeigeausgabe, welche zum Projektor 58 befördert wird, so dass Information, welche auf der Berührungsfläche 60 dargestellt wird, die Zeigeraktivität reflektiert.
  • Die Hauptsteuerung 54 empfängt außerdem Befehle vom Personalcomputer 56 und antwortet entsprechend darauf. Sie erzeugt außerdem Befehls-PIPs und befördert diese zu den Digitalkameras 63.
  • Besonderheiten, welche die Verarbeitung der erfassten Bilder und die Triangulation von Zeigerkenndaten in den PIPs betreffen, werden nun unter besonderer Bezugnahme auf die 6 bis 8 beschrieben.
  • Zunächst wird eine Kamera-Offset-Winkel-Kalibrierungsroutine durchgeführt, um den Offset-Winkel δ jeder Kamera 63 (siehe 11) zu bestimmen, so dass die Kontakt- oder Schwebeposition eines Zeigers in Bezug auf die Berührungsfläche 60 genau bestimmt werden kann. Details der Kamera-Offset-Winkel-Kalibrierung sind in der ebenfalls anhängigen Anmeldung des Anmelders der US-Anmeldung mit dem Titel "Calibrating Camera Offsets to Facilitate Object Position Determination Using Triangulation" beschrieben, welche am 1. Juni 2001 angemeldet wurde, deren Inhalt hiermit durch Bezugnahme eingeführt ist.
  • Im Anschluss an die Kamera-Offset-Winkel-Kalibrierungsroutine wird eine Flächenermittlungsroutine durchgeführt, um die Bestimmung zu verbessern, ob ein Zeiger in Kontakt mit der Berührungsfläche 60 bei einem bestimmten Punkt ist oder über der Berührungsfläche schwebt.
  • Mit den Rechteckkoordinaten eines Zeigers in der Ebene der Berührungsfläche 60, welche durch die Kamera-Offset-Kalibrierung genau bekannt ist, kann die Orientierung der Berührungsfläche 60 gesehen durch jede Digitalkamera 63 bestimmt werden. Dies aufgrund der Tatsache notwendig, dass die Digitalkameras nicht unmittelbar längs der Ebene der Be rührungsfläche 60 sehen, jedoch auch in einer Richtung senkrecht dazu. Bis zu einem bestimmten Grad schaut jede Digitalkamera 63 nach unten in die Berührungsfläche 60. 14 zeigt allgemein die Form der Berührungsfläche 60 gesehen durch eine Digitalkamera 63. Aus diesem Grund wird gewünscht, eine "vertikale" Koordinate z zu definieren, welche die Berührungsflächenstelle als eine Funktion der Rechteckkoordinaten x und y beschreibt.
  • Die z-Koordinate des Zeigers kann von einem digitalen Kamerabild gemessen werden, und folglich können z-Koordinaten für Zeigerpositionen auf der Berührungsfläche 60 bestimmt werden. Diese vertikale Kalibrierung wird zu einer Sache, die z-Koordinatendaten für vorgegebene Rechteckkoordinaten x und y anzupassen. Die vertikale Kalibrierung kann als eine Fläche der Form beschrieben werden: z(x,y) = Ax + By + Cx2 + Dy2 + Exy + F (0.1)
  • Es sei angemerkt, dass, wenn die Koeffizienten C, D und E null sind, diese zu einer Ebene wird. Die Einrichtung leicht berechnet, da die Gleichung (0.1) ein lineares Problem kleinster Quadrate zeigt. Die entsprechende Matrix nimmt die Form an:
    Figure 00110001
  • Um die Rechteckkoordinaten x und y an die Gleichung (0.1) anzupassen, um die Koeffizienten A bis E zu bestimmen, wird das pseudo-inverse Moore-Penrose-Verfahren, welches auf einer Einzelwert-Dekomposition (SVD) basiert, verwendet, um eine Minimalnorm-Lösung kleinster Quadrate zu bestimmen.
  • Wie man ersehen kann, kann eine Matrix immer in der folgenden Weise zerlegt werden: A = USVT (0.2)
  • Die Matrix A kann irgendeine Form haben. Die Matrizen U und V sind Orthogonalmatrizen, was heißt: UTU = I = VTV
  • Die Diagonalmatrix S besteht vollständig aus den Einzelwerten der Matrix A, welche auf Quadrate von den Eigenwerten der Matrix A bezogen sind. Die Wichtigkeit der Einzelwertzerlegung (SVD) liegt in der Tatsache, dass damit die Umkehrung der Matrix A immer berechnet werden kann. Außerdem ist es möglich, diese Umkehr zu steuern, wenn ein schlecht bestimmtes Problem vorgefunden wird. Es sei das System linearer Gleichungen betrachtet: Ax v = b vderen Lösung sein würde: x → = A–1b →
  • SVD erlaubt die Umkehr der Matrix A, welche geschrieben wird als: A–1 = VS–1UT (0.3)da beide Matrizen U und V orthogonal sind. Bei der schlecht bestimmten Situation werden einige der Einzelwerte sehr klein sein, so dass, wenn die Matrix S–1 gebildet wird, große Werte erzeugt werden, was nicht wünschenswert ist. In diesem Fall werden die Umkehrungen der kleinsten Einzelwerte auf null gesetzt. Dies hat die Wirkung, den schlecht bestimmten Teil der Lösung zu beseitigen. Für Probleme der kleinsten Quadrate ist dies ein starkes Werkzeug. Das Verfahren der üblichen normalen Gleichungen für Probleme kleinster Quadrate basiert auf dem Lösen: ATAx v = ATb v (0.4) x v = (ATA)–1ATb vim oben bestimmten Fall, und Lösen: x v = AT(AAT)–1b v (0.5)im unten bestimmten Fall. Wie man es schätzen wird, wird während des Anpassens des Systems der Gleichungen an die Gleichung (0.1) das gleiche Verfahren verwendet wie das, wel ches während der Bestimmung der Kamera-Offset-Winkel-δ verwendet wird. Da die gleiche Prozedur verwendet wird, werden die Speicherverwendung und die Verarbeitungsgeschwindigkeit auf gewünschten Pegeln beibehalten.
  • Wenn die Koeffizienten A bis E bekannt sind, kann die z-Koordinate für einen bestimmten Punkt (x, y) auf der Berührungsfläche berechnet werden, und somit kann eine Bestimmung durchgeführt werden, ob ein Zeiger die Berührungsfläche 60 kontaktiert oder über dieser schwebt.
  • Bei dem kalibrierten Berührungssystem 50 erfasst während des Betriebs jede Digitalkamera 63 Bilder der Berührungsfläche 60 innerhalb von ihrem Blickfeld. Die Bilder werden durch die Bild- und Linsenbaugruppe 80 in Intervallen als Antwort auf die Taktsignale erfasst, welche vom DSP 84 empfangen werden. Jedes durch die Bild- und Linsenbaugruppe 80 erfasste Bild wird zum FIFO-Puffer 82 geliefert. Der DSP 84 wiederum liest jedes Bild vom FIFO-Puffer 82 und verarbeitet das Bild. Um die Verarbeitung einer signifikanten Anzahl von Pixeln, die keine nützliche Information enthalten, zu vermeiden, wird lediglich eine Teilmenge der Pixel im erfassten Bild verarbeitet, wie in 9 gezeigt ist.
  • Während der Verarbeitung eines Bilds, welches durch eine Digitalkamera 63 erfasst wurde, führt der DSP 84 eine Prozess-Rahmen-Routine durch, wie in 6 gezeigt ist. Wenn ein Bild zur Verarbeitung verfügbar ist (Schritt 120), wird überprüft, um zu bestimmen, ob das Bild zum Zweck eines Einstellens der Digitalkamera eingefangen wurde (Schritt 122). Wenn das Bild für den Zweck der Belichtungseinstellung erfasst wurde, wird eine Belichtungssteuenoutine aufgerufen (Schritt 124), um die Belichtung der Digitalkamera 63 einzustellen. Danach wartet der DSP 84 auf den Empfang des nächsten Bilds, welches zur Verarbeitung verfügbar ist.
  • Im Schritt 122 wird, wenn das Bild nicht zum Zweck der Einstellung eingefangen wurde, die Belichtung der Digitalkamera 63 eingestellt, eine Überprüfung gemacht, um zu bestimmen, ob das Bild zum Zweck eines Ersatzes eines Hintergrundbilds eingefangen wurde (Schritt 126). Wenn das Bild zum Zweck eines Hintergrundbildersatzes erfasst wurde, wird eine Einfang-Hintergrund-Routine aufgerufen (Schritt 128) und das erfasste Bild wird als Hintergrundbild verwendet. Dies wird ausgeführt, wenn eine Digitalkamera ein Bild erfasst und ein PIP zur Hauptsteuerung sendet, das zeigt, dass ein Zeiger im Bild ist, wenn dies tatsächlich Rauschen ist. Der Ersatz des Hintergrundbilds verhindert effektiv, dass die Digitalkamera 63 einen Zeiger in zukünftigen PIPs falsch identifiziert. Darauf wartet der DSP 84 auf den Empfang des nächsten Bilds, welches zur Verarbeitung verfügbar ist.
  • Im Schritt 126 wird, wenn das Bild nicht zum Zweck des Hintergrundbildersatzes eingefangen wurde, eine Kopie/Akt.-Routine durch den DSP 84 aufgerufen (Schritt 130). Während dieser Routine wird das aktuell erfasste Bild in den Speicher kopiert und verwendet, das Hintergrundbild zu aktualisieren, sowie ein Differenzbild zu bilden, welches die Unterschiede zwischen dem aktuell erfassten Bild und dem Hintergrundbild zeigt.
  • Nach Abschluss der Kopie/Akt.-Routine wird eine Segment-Zeiger-Routine aufgerufen (Schritt 132), um zu bestimmen, ob ein Zeiger im erfassten Bild ist, und wenn dies so ist, die Stelle des Zeigers in Bezug auf die Berührungsfläche 60 zu bestimmen, und ob der Zeiger in Kontakt mit der Berührungsfläche 60 ist oder über dieser schwebt. Die Segment-Zeiger-Routine 132 erlaubt außerdem, dass Lichtänderungszustände ermittelt werden können. Im Anschluss an die Segment-Zeiger-Routine 132 ruft der DSP 84 eine Füll-PIP-Routine auf (Schritt 134), um den Zeiger- und Lichtbedingungsinformation in eine PIP zur Hauptsteuerung 54 zu setzen. Danach wartet der DSP 84 auf den Empfang des nächsten Bilds, welches für die Verarbeitung verfügbar ist.
  • 7 zeigt die Schritte, welche durch den DSP 84 während der Ausführung der Segment-Zeiger-Routine 132 durchgeführt werden. Wie man ersehen kann, ruft, wenn der DSP 84 die Segment-Zeiger-Routine ausführt, der DSP 84 eine Such-Zeiger-Routine auf, um zu bestimmen, ob ein Zeiger im erfassten Bild ist, und, wenn dies so ist, die Position des Zeigers im aktuellen fassten Bild (Schritt 140). Bei Beendigung der Such-Zeiger-Routine 140 ruft der DSP 84 eine Aktualisierungs-Hintergrund-Routine auf, um das Hintergrundbild zu aktualisieren, um damit mit Änderungen bei Belichtungszuständen fertig zu werden (Schritt 142).
  • Während der Ausführung der Aktualisierungs-Hintergrund-Routine aktualisiert der DSP 84 fortlaufend das Hintergrundbild unter der Verwendung der Gleichung: Bn+1(i,j) = (1 – a)Bn(i,j) + aI(i,j)(0.6)wobei:
  • Bn+1
    das neue Hintergrundbild ist;
    Bn
    das aktuelle Hintergrundbild ist;
    I
    das aktuell erfasste Bild ist;
    i,j
    die Reihen- und Spaltenkoordinaten der Hintergrundbildpixel, die aktualisiert werden, sind; und
    a
    eine Zahl zwischen 0 und 1 ist, welche den Lerngrad zeigt, der von dem aktuell erfassten Bild I hergenommen werden sollte. Je größer der Wert a ist, desto schneller wird das Hintergrundbild aktualisiert.
  • Nachdem die Aktualisierungs-Hintergrund-Routine 142 ausgeführt ist, wird die Intensitätsdifferenz zwischen dem aktuell erfassten Bild und dem Hintergrundbild durch den DSP 84 berechnet. Diese Information wird zur Hauptsteuerung 54 gesendet, um es der Hauptsteuerung zu ermöglichen, zu bestimmen, ob die Digitalkamera 63 eine neue Belichtung braucht. Dies würde es erfordern, wenn eine drastische Änderung der Belichtungszustände auftrat (d.h., Umgebungsbelichtung wurde ein- oder ausgeschaltet). Wenn eine neue Belichtungseinstellung der Digitalkamera 63 erforderlich ist, sendet die Hauptsteuerung 54 ein Befehls-PIP zur Digitalkamera 63, welche die Digitalkamera anweist, ein Bild zur Belichtungseinstellung zu erfassen.
  • 8 zeigt die Schritte, die durch den DSP 84 während der Ausführung der Such-Zeiger-Routine 140 durchgeführt werden. Wie ersehen werden kann, löscht, wenn der DSP 84 die Such-Zeiger-Routine 140 ausführt, der DSP 84 die Zeigerstelle und die Zeigerspitzenparameter x bzw. z (Schritt 150). Danach wird ein vertikales Intensitätshistogramm aufgebaut (Schritt 152). Während dieser Stufe wird das Differenzbild, welches die Differenzen zwischen dem aktuellen Bild und dem Hintergrundbild zeigt, gebildet, und Pixelintensitäten im Differenzbild werden pro Spalte summiert. Auf diese Weise wird ein 640×1 Vektor gebildet, der die Summe jeder Spalte im Differenzbild von 640×20 zeigt. Somit zeigt das erste Element im Vektor von 640×1 die Summe von 20 Pixeln in der ersten Spalte des Differenzbilds von 640×20, das zweite Element im Vektor von 640×1 zeigt die Summe der 20 Pixel in der zweiten Spalte des Differenzbilds von 640×20 usw.. Weitere Besonderheiten dieses Prozesses können im Artikel gefunden werden mit dem Titel "A smart camera application: DSP-based people detection and tracking", vom Autor V. Cheng et al, veröffentlicht im SPIE Journal of Elctronic Imaging, Juli 2000.
  • Im Anschluss an das Bilden des vertikalen Intensitätshistogramms im Schritt 152 wird der Zeigerstellenparameter x bestimmt, wobei die Spalte im vertikalen Intensitätsprogramm mit der höchsten Intensität über einem Rauschschwellenwert gefunden wird (Schritt 154). Die Spalte wird als Mitte eines Bereichs von Interesse (ROI) verwendet, der mit der Breite des ROI zu verarbeiten ist, welcher gleich der Basis der Spitze ist, welche durch das vertikale Intensitätshistogramm gebildet wird (siehe 10). Wenn keine Spalte eine Intensität über den Rauschschwellenwert hat, wird angenommen, dass kein Zeiger innerhalb des erfassten Bilds ist.
  • Wenn ein Zeigerstellenparameter x bestimmt wird, analysiert der DSP 84 den ROI, um die Pixelreihe zu bestimmen, wo die Zeigerspitze sich befindet und um zu bestimmen, ob diese Reihe eine Berührungsflächenkontakt oder einen Schwebekontakt zeigt (Schritt 156). Insbesondere bildet der DSP 84 eine Binärmaske im ROI, so dass weiße Pixel den Zeiger darstellen und schwarze Pixel den Hintergrund darstellen, wie in 12 gezeigt ist. Aus der Maske kann die Zeigermittellinie des Zeigers und die Zeigerspitzenstelle z leicht berechnet werden.
  • Während der Füll-PIP-Routine 134 verwendet der DSP 84 den Zeiger und die Lichtzustandsinformation, welche während der Ausführung der Segment-Zeiger-Routine 132 erfasst wurden und bildet ein PIP, um das erfasste Bild auf einen kleinen Datensatz zu reduzieren, um Breitbandeconomy zu liefern. Das PIP ist in Form eines Sechs-Wort-Pakets, wobei jedes Wort im Paket 16 Bits hat. Dieses PIP nimmt üblicherweise die Form an:
    Figure 00160001
  • Der Datenkopfbereich des PIP beträgt üblicherweise 16 Bits und umfasst ein Bestimmungs-/Quellenfeld, ein Datenfeld, ein Bildrahmen-Nummernfeld, ein Sequenznummernfeld und ein Paketnummernfeld. Das Bestimmungsort-/Quellenfeld identifiziert den PIP-Bestimmungsort und die PIP-Quelle. Wenn das PIP durch die Hauptsteuerung 54 erzeugt wird, kann der Bestimmungsort eine einzelne Digitalkamera 63 oder alle Digitalkameras sein. Die Datenart zeigt, ob das PIP Bezug auf Zeigerinformation oder andere Information, beispielsweise Status- und Diagnostikinformation hat. Das Bildrahmen-Nummernfeld speichert eine Zahl, so dass Bilder von jeder Digitalkamera 63 der Reihe nach durch die Hauptsteuerung 54 verarbeitet werden. Das Sequenznummernfeld speichert eine Zahl, welche sich das PIP auf andere PIPs bezieht. Das Paketnummernfeld speichert eine Zahl, welche das Paket identifiziert.
  • Der Datenbereich des PIP besteht üblicherweise aus 64 Bits und umfasst ein Zeiger-ID-Feld, ein Zeigerort-Parameterfeld, ein Zeigerspitzen-Parameterfeld, ein Kontaktstatusfeld und einen Wert des Zeigerfelds. Das Zeiger-ID-Feld speichert einen Identifizierer für den Zeiger, um zuzulassen, dass mehrere Zeiger nachgeführt werden können. Das Zeigerstellen-Parameterfeld speichert den x-Wert, der durch den DSP 84 berechnet wurde. Das Zeigerspitzen-Parameterfeld speichert den z-Wert, der durch den DSP 84 berechnet wurde. Das Kontaktstatusfeld speichert einen Wert, der zeigt, ob der Zeiger außer Kontakt oder möglicherweise in Kontakt mit der Berührungsfläche 60 ist. Der Wert des Zeigerfelds speichert einen statistischen Wert bezüglich der Wahrscheinlichkeit, dass der ermittelte Zeiger real ist.
  • Der Prüfsummenbereich des PIP wird verwendet, die PIP-Übertragungsintegrietät sicherzustellen. Wenn PIP-Prüfsummenfehler nicht häufig sind, werden die auftretenden PIPs-Prüfsummenfehler durch die Bestimmungseinrichtung ignoriert.
  • Status-PIPs, welche keinen Bezug auf die Zeigerinformation haben, haben eine verschiedene Form gegenüber denjenigen der oben identifizierten beschriebenen PIPs. Für PIPs dieser Natur umfasst der Datenbereich ein Instruktionsfeld, ein Instruktionscodefeld und ein Datenfeld. Das Instruktionsfeld identifiziert, ob die Instruktionsart eine Instruktion ist, die durchzuführen ist, oder eine Statusanforderung ist. Das Instruktionscodefeld speichert die aktuelle Instruktion oder den Statusanforderungsidentifizierer. Das Datenfeld speichert Daten, welche in Abhängigkeit von der Art der Instruktion variieren. Beispiele von Status-PIPs umfassen Rahmendatenkopf-PIPs, Befehls-PIPs und Fehlerinformations-PIPs.
  • Eine Rahmendatenkopf-PIP umfasst üblicherweise die Zahl der Zeiger-PIPs, die dazu dienen, einem aktuell erfassten Bild zu folgen, mit Statistiken für das aktuelle Bild, beispielsweise die Intensitätsvarianz zwischen dem aktuell erfassten Bild und einem vorherigen Bild. Ein Befehls-PIP, der durch die Hauptsteuerung 54 ausgegeben wird, kann eine Digitalkamera instruieren, eine oder mehrere ihrer Einstellungen einzustellen, beispielsweise die Belichtung oder das Einfangen eines Bilds, welches als ein neues Hintergrundbild zu verwenden ist. Eine Fehler-PIP kann einen Fehlerzustand von einer Digitalkamera 63 zur Hauptsteuerung 54 zur Speicherung in einem Fehlerprotokoll leiten.
  • Jede Digitalkamera 63 verarbeitet jedes Bild, welches sie erfasst, in einer Weise, wie oben beschrieben, als Antwort auf jedes Taktsignal, welches durch ihren DSP 84 erzeugt wird. Die durch die DSPs 84 gebildeten PIPs werden lediglich zur Hauptsteuerung 54 gesendet, wenn die Digitalkameras 63 durch die Hauptsteuerung 54 befragt werden.
  • Wenn die Hauptsteuerung 54 die Digitalkameras 63 abfragt, werden Rahmensynchronimpulse zu den Digitalkameras 63 gesendet, um die Übertragung der PIPs zu beginnen, welche durch die DSPs 84 gebildet werden. Bei Empfang eines Rahmensynchronimpulses überträgt jeder DSP 84 das PIP zur Hauptsteuerung 54 über den Datenbus. Die zur Hauptsteuerung 54 übertragenen PIPs werden über den seriellen Port 96 empfangen und in den DSP 90 automatisch gepuffert.
  • Nachdem der DSP 90 die Digitalkameras 63 abgefragt hat und die PIPs von jeder der Digitalkameras 63 empfangen hat, welche Zeigerinformation umfassen, verarbeitet der DSP 90 die PIPs unter Verwendung von Triangulation, um die Stelle des Zeigers in Bezug auf die Berührungsfläche 60 zu bestimmen, in (x, y)-Koordinaten. Insbesondere werden die PIPs von Paaren von Digitalkameras 63 unter Verwendung von Triangulation verarbeitet.
  • 11 zeigt, dass zwei Winkel φcam1 und φcam2 benötigt werden, die Position (x0, y0) eines Zeigers in Bezug auf den Berührungsbildschirm 60 zu triangulieren. Die durch jede Digitalkamera 63 erzeugten PIPs umfassen eine Zahl θ (siehe 12), welche die Mittellinie oder die Spitze des Zeigers identifiziert. Wenn die Hauptsteuerung 54 ein PIP von einer Digitalkamera 63 empfängt, verwendet die Hauptsteuerung die Zahl, welche die Mittelinie oder die Spitze des Zeigers zeigt, und das Blickfeld der Digitalkamera, um einen Winkel φcam unter Verwendung der Gleichung zu berechnen:
    Figure 00180001
    wobei:
  • x
    die Zahl ist, welche die Mittellinie oder die Spitze des Zeigers zeigt; und
    a
    die Gesamtlänge ist, welche durch das Blickfeld (FOV) der Digitalkamera in einem Abstand von der Kamera einschlossen ist.
  • Der berechnete Winkel φcam ist gleich dem Winkel, der zwischen der Extremität des Blickfelds, welches sich über den bestimmten Umfangsrand der Berührungsfläche 60 der Digitalkamera 63 erstreckt, welche das PIP erzeugte, und einer Linie, welche sich von der optischen Achse der Digitalkamera erstreckt, welche den Zeiger innerhalb des erfassten Bilds schneidet. Vorzugsweise erstreckt sich die Extremität des Blickfelds über den bezeichneten Umfangsrand (d.h. in diesem Fall die x-Achse) der Berührungsfläche 60 innerhalb des Blickfelds um einen bekannten Betrag hinaus. In fast allen Fällen ist jedoch der Winkel-Offset-Abtastwert δman jeder Digitalkamera 63 verschieden und nicht bekannt.
  • Wenn die Hauptsteuerung 54 den Winkel φcam berechnet, verwendet die Hauptsteuerung 54 den Kamera-Offset-Winkel δcam, der während der Kamera-Offset-Kalibrierung bestimmt wurde, um den Winkel φcam einzustellen. Mit den beiden verfügbaren Winkeln und mit den eingestellten Winkeln φcam verwendet die Hauptsteuerung 54 die Winkel φcam, um die Position des Zeigers in Bezug auf die Berührungsfläche 60 zu bestimmen, wobei Triangulation verwendet wird.
  • Da bei dieser Ausführungsform der Berührungsbildschirm 52 vier Digitalkameras 63 aufweist, können sechs Digitalkamerapaare zur Triangulation verwendet werden. Die folgende Erläuterung beschreibt, wie eine Zeigerposition durch Triangulation für jedes Paar der Digitalkameras 63 bestimmt wird.
  • Um eine Zeigerposition unter Verwendung der PIPs zu bestimmen, welche von den Digitalkameras 63 empfangen werden, längs der linken Seite des Berührungsbildschirms 52, werden die folgenden Gleichungen verwendet, um die (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ0 und φ1 für die oberen und unteren Digitalkameras gegeben sind:
    Figure 00190001
    wobei:
  • h
    die Höhe des Berührungsbildschirms 52 ist, d.h., der vertikale Abstand vom Fokussierungspunkt zu Fokussierungspunkt der Digitalkamera;
    w
    die Breite des Berührungsbildschirms 52 ist, d.h., der horizontale Abstand vom Fokussierungspunkt zu Fokussierungspunkt der Digitalkamera; und
    φi
    der Winkel in Bezug auf die gemessene Horizontale, gemessen unter Verwendung der Digitalkamera i und der Gleichung (0.7).
  • Für die Digitalkameras 63 längs der rechten Seite des Berührungsbildschirms 52 werden die folgenden Gleichungen verwendet, um (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ2 und φ3 für die oberen und unteren Digitalkameras gegeben sind:
    Figure 00190002
  • Die Ähnlichkeit zwischen den Gleichungen (0.8) und (0.10), d.h., Gleichung (0.10 = 1-Gleichung (0.8), wenn die Winkel φ2 und φ3 in die Gleichung (0.8) für die Winkel φ1 bzw. φ2 eingesetzt wurden, sollte offensichtlich sein. Die Gleichungen (0.9) und (0.11) stehen in ähnlicher Weise in Bezug zueinander.
  • Um eine Zeigerposition unter Verwendung der Digitalkameras 63 längs dem Boden des Berührungsbildschirms 52 zu bestimmen, werden die folgenden Gleichungen verwendet, um die (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ0 und φ3 für den Boden links und den Boden rechts der Digitalkameras gegeben sind:
    Figure 00200001
  • Um eine Zeigerposition unter Verwendung der Digitalkameras 63 längs des Kopfes des Berührungsbildschirms 52 zu bestimmen, werden die folgenden Gleichungen verwendet, um die (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ1 und φ2 für die Digitalkameras links oben und rechts oben gegeben sind:
    Figure 00200002
  • Die Ähnlichkeit zwischen den Gleichungen (012) und (0.14), d.h., Gleichung (014) = Gleichung (0.12), wenn die Winkel φ1 und φ2 in die Gleichung (0.12) für die Winkel φ0 und φ3 eingesetzt wurden, sollte offensichtlich sein. Die Gleichungen (0.13) und (0.15) haben die folgende Beziehung: Gleichung (0.15) = 1-Gleichung (0.13), wenn die Winkel φ1 und φ2 in die Gleichung (0.13) für die Winkel φ0 bzw. φ3 eingesetzt wurden.
  • Um eine Zeigerposition unter Verwendung der Digitalkameras 63 über dem Boden links zur rechten oberen Eckendiagonale zu bestimmen, werden die folgenden Gleichungen verwendet, um die (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ0 und φ2 für Digitalkameras des linken Bodens und der rechten Oberseite gegeben sind:
    Figure 00200003
  • Um eine Zeigerposition unter Verwendung der Digitalkameras über dem Boden rechts zur linken Kopfdiagonale zu bestimmen, werden die folgenden Gleichungen verwendet, um die (x0, y0)-Koordinaten der Zeigerposition zu bestimmen, wenn die Winkel φ1 und φ3 für Digitalkameras des rechten Bodens und des linken Kopfs gegeben sind:
    Figure 00210001
  • Die Ähnlichkeit zwischen den Gleichungen (0.16) und (0.18), d.h., Gleichung (0.18) = Gleichung (0.16), wenn die Winkel φ1 und φ3 in die Gleichung (0.16) für die Winkel φ0 und φ2 eingesetzt sind, sollte offensichtlich sein. Die Gleichungen (0.17) und (0.19) haben die folgende Beziehung: Gleichung (0.19) = 1-Gleichung (0.17), wenn die Winkel φ1 und φ3 in die Gleichung (0.17) für die Winkel φ0 bzw. φ2 eingesetzt sind.
  • Wie man es vorteilhaft sieht, erzeugen die obigen Gleichungen die Koordinaten x0 und y0 auf einem Maßstab [0,1]. Daher kann der geeignete Koordinatenmaßstab durch Multiplizieren von x0 und y0 durch die Maximalwerte X bzw. Y aufgelistet werden.
  • Bei der vorliegenden Ausführungsform berechnet der DSP 90 die Zeigerposition unter Verwendung von Triangulation für jedes Digitalkamerapaar ausschließlich der Diagonalpaare. Die resultierenden Zeigerpositionen werden dann gemittelt und die resultierenden Zeigerpositionskoordinaten werden zur Übertragung zum Personalcomputer 56 über den seriellen Port 98 und die serielle Leitungsansteuerung 94 aufgereiht.
  • Mit der (x, y)-Position eines Zeigers, der durch Triangulation bekannt ist, wobei die Koeffizienten A bis E verwendet werden, die während der Flächenermittlungskalibrierung berechnet wurden, kann die z-Koordinate, welche der (x, y)-Position entspricht, unter Verwendung der Gleichung (0.1) bestimmt werden. Das Berechnen der z-Koordinate und das Vergleichen der z-Koordinate mit dem z-Parameter im PIP liefert eine Indikation, ob der Zeiger über der Berührungsfläche 60 schwebt oder in realen Kontakt mit der Berührungsfläche ist.
  • Wenn gewünscht kann die Zeigergeschwindigkeit v und der Winkel durch den DSP 90 berechnet werden, wie in 13 gezeigt ist. Die Geschwindigkeit des Zeigers wird durch Prüfen der Änderungen der z-Position (oder x-Schnittpunkt) des Zeigers in aufeinan derfolgenden PIPs und der Kenntnis der Kamerarahmenrate berechnet. Wenn beispielsweise die Kameraraterate 200 Rahmen pro Sekunde beträgt und die z-Position sich um 1 Pixelreihe pro Rahmen ändert, beträgt die Zeigergeschwindigkeit 200 Pixel pro Sekunde.
  • Der Winkel des Zeigers kann aufgrund der Tatsache bestimmt werden, dass das PIP den x-Schnittpunkt bei Pixelreihen 0 und 19 der Mittellinie aufweist. Da der x-Abstand (der Unterschied zwischen x-Schnittpunkten) und der y-Abstand (die Anzahl der Pixelreihen) bekannt sind, ist die gesamte Information, die zum Berechnen des Zeigerwinkels notwendig ist, verfügbar.
  • Wenn gewünscht kann ein Kalman-Filter (im Wesentlichen ein rekursives Verfahren kleinster Quadrate) verwendet werden, um "Führung" des Zeigers effektiv zu bewirken, wenn er innerhalb eines bestimmten Abstands der Berührungsfläche 60 ist. Um dies zu machen, ist es notwendig, ein Systemgleichungs- oder Modell zu definieren, welches im Filter zu verwenden ist. Da die Hauptsteuerung 54 in der Lage ist, sowohl die Position z als auch die Geschwindigkeit v des Zeigers zu liefern, kann die folgende Gleichung verwendet werden: z = z0 + vt ν = ν
  • Die zweite dieser Gleichungen ist erforderlich, da das Filter kennen muss, was mit der Geschwindigkeit zu tun ist, und außerdem, da sowohl z als auch v messbar sind. Der Statusvektor wird wie folgt definiert: [z ν]T
  • Um den Zustand des Systems bei zwei aufeinanderfolgenden Zeitpunkten n und n + 1 in Bezug zubringen, werden die Systemgleichungen als Matrixdifferenzgleichung umgeschrieben:
    Figure 00220001
    oder in Matrix-Schreibweise. x ^n+1 = Ax ^n + σ
  • Hier bezeichnet dt das Zeitintervall zwischen aufeinanderfolgenden Zeitschritten. Hier wird außerdem RHS als "Prozess-Rausch"-Begriff eingeführt. Dies ist lediglich formal, jedoch Teil des Kalman-Filter-Verfahrens. Es ist außerdem notwendig, zu spezifizieren, wie eine Messung in die Prozedur eingeführt wird. Dies wird über die Matrixgleichung ausgeführt: zn = Hxn + wwobei zn eine Messung der Position und Geschwindigkeit ist, h eine "Messmatrix" ist, welche hergenommen wird, eine Identitätsmatrix zu sein, xn der Zustandsvektor ist und w das Mess-Rauschen ist. Im Wesentlichen sei angenommen, dass die Messungen Rauschversionen des Statusvektors sind. Es ist außerdem notwendig, eine Kovarianzmatrix in Verbindung mit w zu definieren. Wenn der Messfehler z 0,5 Pixel beträgt, ist die Kovarianzmatrix dann:
    Figure 00230001
  • Eine ähnliche Matrix Q ist für das Prozess-Rauschen, welches oben eingeführt wurde, erforderlich, wobei es in etwa beliebig ist, es als ein Abstimmparameter für das Filter behandelt zu werden. In diesem Beispiel wird die Matrix Q so hergenommen, um eine Identifizierungsmatrix zu sein, welche mit einem Faktor der Ordnung einer Einheit oder weniger multipliziert wird. Wenn obiges eingerichtet ist, gibt es ausreichend Information, den Filterprozess zu beginnen. Der erste (Vorhersage)-Schritt ist: x ^k+1(–) = Ax ^k(+) Pk(–) = APk-1(+)AT + Qk-1
  • Hier bedeutet die (–) Schreibweise, dass eine Messung noch nicht durchgeführt wurde, während (+) bedeutet, dass dies getan wird (wobei in diesem Fall sich (+) auf den vorherigen Schritt bezieht). Außerdem besagt die Matrixgleichung für die Matrix P eine Kovarianzmatrix voraus. Der nächste Schritt ist die Filtergewinnberechnung: Kk = Pk(–)HTk [HkPk(–)HTk + Rk]–1
  • Wenn eine Messung einmal durchgeführt wurde, kann die Zustandsschätzung und deren Kovarianz aktualisiert werden: x ^k(+) = x ^k(-) + Kk[zk – Hkxk(–)] Pk(+) = [P–1k (–) + HTk R–1k Hk]–1
  • Es ist diese Schätzung des Zustands x, die verwendet wird, zu bestimmen, ob ein Kontakt mit der Berührungsfläche aufgetreten ist oder nicht. Es sei hier angemerkt, dass die Matrizen H und R beide zeitlich konstant sind, und dass lediglich die Matrizen K und P sich ändern (in Wirklichkeit nähert sich P einer konstanten Matrix). Eine zusätzliche Vereinfachung tritt auf, dass es keinen beteiligten Steuerprozess gibt.
  • Die Ergebnisse einer Matlab-Simulation eines Kalman-Filters unter Verwendung eines Satzes von Messungen, die einen Zeiger zeigen, der sich der Berührungsfläche 60 mit einer konstanten Geschwindigkeit nähert, wurden durchgeführt. 15 und 16 zeigen die Simulation mit dem Zeitschritt dt von 0,1 s und einer Messgenauigkeit von 0,5 Pixeln. Die offenen Symbole zeigen die Daten, und die Linien die Zustandsschätzung vom Kalman-Filter. Es ist deutlich, dass die Zustandsschätzung den Daten ziemlich gut folgt.
  • Eine zweite Matlab-Simulation wurde durchgeführt, um sowohl die vertikale (z) als auch die horizontale (x) Bewegung eines Zeigers in betracht zu ziehen. Diese Simulation ist grundsätzlich ähnlich zwei Kalman-Filter, die zusammen in einer "parallelen" Weise arbeiten. Die Formulierung ist exakt die gleiche, mit der Ausnahme, dass die zweifache Zahl von Variablen in betracht gezogen werden muss. 17a bis 17d zeigen die Ergebnisse der Simulation und zeigen die Bewegung eines Zeigers in Richtung auf die Berührungsfläche 60 mit konstanter Geschwindigkeit und mit einer langsam sich variierenden x-Position (d.h., die Hand der Person ist nicht stetig).
  • Obwohl das Berührungssystem 50 so beschrieben wurde, dass es einen Projektor aufweist, um Bilder auf dem Berührungsbildschirm zu zeigen, wird der Fachmann erkennen, dass dies nicht erforderlich ist. Der Berührungsbildschirm 52 kann transparent sein oder er kann durchscheinend sein und über einer Anzeigeeinheit angeordnet sein, so dass die Anzeige, welche auf der Anzeigeeinheit gezeigt wird, durch den Berührungsbildschirm hindurch sichtbar ist. Außerdem muss der Berührungsbildschirm nicht eine rechteckige Folie aus einem Material sein, der durch einen Rahmen umgeben ist. Der Berührungsbildschirm kann in Wirklichkeit virtuell irgendeine Fläche mit sich überlappenden Sichtfeldern von zwei oder mehreren Digitalkameras sein.
  • Obwohl außerdem das Berührungssystem 50 so beschrieben wurde, dass es eine Hauptsteuerung separat von den Digitalkameras aufweist, kann gewünscht werden, dass eine der Digitalkameras sowohl als Kamera als auch als Hauptsteuerung funktioniert und die anderen Digitalkameras für PIPs abfragt. In diesem Fall wird bevorzugt, dass die Digitalkamera, welche als Hauptsteuerung funktioniert, einen schnelleren DSP 84 als die verbleibenden Digitalkameras enthält.
  • Obwohl weiter die Flächenermittlungsroutine so beschrieben wurde, dass die Koeffizienten A bis E bestimmt werden, welche bei der Gleichung (0.1) verwendet werden, um die z-Koordinaten des Zeigers bei einem bestimmten Punkt (x, y) in Bezug auf den Berührungsbildschirm zu berechnen, kann während der Flächenermittlungsroutine die Hauptsteuerung 54 programmiert sein, eine z-Koordinate für spezifische Bereiche (x, y) der Berührungsfläche zu berechnen und die z-Koordinaten in einer Nachschlagetabelle (LUT) zu speichern. Wenn in diesem Fall ein Zeiger in Bildern auftritt, welche durch die Digitalkameras eingefangen werden, und die (x, y)-Position des Zeigers in Bezug auf die Berührungsfläche bestimmt wird, kann eine Entscheidung getroffen werden, ob der Zeiger mit der Berührungsfläche in Kontakt ist, wobei die z-Koordinate in der LUT entsprechend dem (x, y)-Bereich, in welchem der Zeiger sich befindet, mit der Pixelreihe der Bild- und Linsenbaugruppe, bei welcher die Zeigerspitze sich befindet, verglichen wird.
  • Wie oben beschrieben berechnet die Hauptsteuerung 54 oder schaut nach auf die z-Koordinaten der Berührungsfläche für jede Digitalkamera und vergleicht die z-Koordinaten mit der Zeigerspitzenposition z, um zu bestimmen, ob der Zeiger in tatsächlichem Kontakt mit der Berührungsfläche ist. Der Fachmann wird jedoch erkennen, dass die DSPs 84 in den Digitalkameras Bildverarbeitungssoftware aufweisen können, um zu bestimmen, ob der Zeiger in tatsächlichem Kontakt mit der Berührungsfläche steht. Diese Bildverarbeitung kann in Verbindung mit oder anstelle der Zeigerkontaktbestimmung durch die Hauptsteuerung durchgeführt werden.
  • Obwohl eine bevorzugte Ausführungsform der vorliegenden Erfindung beschrieben wurde, wird der Fachmann erkennen, dass Variationen und Modifikationen ausgeführt werden können, ohne den Rahmen der Erfindung, wie diese durch die angehängten Patentansprüche definiert ist, zu verlassen.

Claims (21)

  1. Kamerabasiertes Berührungssystem (50), umfassend: wenigstens zwei Kameras (63, 64), die einer Berührungsoberfläche (60) zugeordnet sind und überlappende Sichtfelder (Fields of View – FOV) aufweisen, die die Berührungsoberfläche umschließen, wobei diese wenigstens zwei Kameras Bilder der Berührungsoberfläche von verschiedenen Standorten aus erfassen und Bilddaten erzeugen; ein Verarbeitungsmittel (54), das Zeigerdaten trianguliert, um die Position des Zeigers relativ zu der Berührungsoberfläche zu bestimmen; dadurch gekennzeichnet, dass die wenigstens zwei Kameras (63, 84) des Weiteren Bildpunkt-Teilmengen von Bilddaten aus den Bilddaten erzeugen; das Verarbeitungsmittel (84, 54) die Bildpunkt-Teilmengen von Bilddaten, die durch die wenigstens zwei Kameras (63, 84) erzeugt wurden, empfängt; das Verarbeitungsmittel (84, 54) die Bildpunkt-Teilmengen verarbeitet, um die Zeigerdaten zu erzeugen, empfängt; das Verarbeitungsmittel (84, 54) die Bildpunkt-Teilmenge verarbeitet, um Zeigerdaten zu erzeugen, wenn in den erfassten Bildern ein Zeiger vorhanden ist.
  2. Berührungssystem nach Anspruch 1, wobei die wenigstens zwei Kameras Digitalkameras (63) sind, die Sichtfelder haben, die allgemein entlang der Ebene der Berührungsoberfläche blicken.
  3. Berührungssystem nach Anspruch 2, wobei die Zeigerdaten eine Zeigermedianlinie x und eine Zeigerspitzenposition z enthalten.
  4. Berührungssystem nach Anspruch 2 oder 3, wobei jede Digitalkamera eine CMOS-Digitalkamera umfasst, die eine wählbare Bildpunktanordnung aufweist.
  5. Berührungssystem nach Anspruch 3 oder 4, wobei jede Digitalkamera einen CMOS-Bildsensor (80) und einen digitalen Signalprozessor (84) enthält, wobei der digitale Signalprozessor ein Bildausgangssignal von dem Bildsensor empfängt und eine Zeigerfin dungsroutine ausführt, um zu ermitteln, ob sich in jedem von der Digitalkamera erfasstem Bild ein Zeiger befindet, und wenn ja, die Medianlinie x des Zeigers festzustellen, wobei der digitale Signalprozessor jeder Digitalkamera Zeigerdaten in einen digitalen Haupt-Signalprozessor (54) einspeist, wobei der digitale Haupt-Signalprozessor die Zeigerdaten trianguliert, um die Zeigerposition zu bestimmen.
  6. Berührungssystem nach Anspruch 5, wobei der digitale Signalprozessor (84) jeder Digitalkamera die Bildpunktdaten analysiert, um die Bildpunktzeile der ausgewählten Bildpunkt-Teilmenge zu finden, wo sich die Zeigerspitze befindet, um dadurch die Zeigerspitzenposition z zu ermitteln.
  7. Berührungssystem nach Anspruch 3 oder 4, wobei das Verarbeitungsmittel für Bilddaten, die von jeder Digitalkamera kommend empfangen werden, die einen Winkel φcam mittels folgender Gleichung berechnet:
    Figure 00270001
    wobei: x die Zahl ist, die die Medianlinie oder Spitze des Zeigers darstellt; und a die Gesamtlänge ist, die durch das Sichtfeld (Field of View – FOV) der Digitalkamera in einem Abstand zu Kamera umschlossen wird; das Verarbeitungsmittel die berechneten Winkel dafür benutzt, die Zeigerposition relativ zu der Berührungsoberfläche zu bestimmen.
  8. Berührungssystem nach Anspruch 7, wobei die berechneten Winkel so justiert werden, dass Digitalkameraversatzwerte vor der Ermittlung der Zeigerposition berücksichtigt werden.
  9. Berührungssystem nach Anspruch 7 oder 8, das wenigstens drei Digitalkameras umfasst, wobei das Verarbeitungsmittel die Zeigerposition mittels Triangulation für mehrere Paare von Digitalkameras feststellt und die festgestellten Zeigerposition mittelt.
  10. Berührungssystem nach einem der Ansprüche 1 bis 9, wobei das Verarbeitungsmittel des Weiteren eine Berührungsoberflächenbestimmungsroutine ausführt, um die Orientierung der Berührungsoberfläche zu berechnen, wie sie von der jeder Digitalkamera gesehen wird, um zu bestimmen, wann der Zeiger die Berührungsoberfläche berührt und wann der Zeiger über der Berührungsoberfläche schwebt.
  11. Berührungssystem nach einem der Ansprüche 1 bis 4, wobei die Berührungsoberfläche im Wesentlichen rechteckig ist, wobei eine Kamera neben jeder Ecke der Berührungsoberfläche positioniert ist.
  12. Berührungssystem nach Anspruch 1, wobei jede ausgewählte Bildpunkt-Teilmenge aneinandergrenzende Bildpunktzeilen enthält und wobei Bildpunktdaten, die von den aneinandergrenzenden Bildpunktzeilen erfasst sind, mit voller Auflösung verarbeitet werden.
  13. Berührungssystem nach Anspruch 1, 2 oder 3, das mehr als zwei Kameras umfasst, die überlappende Sichtfelder aufweisen, und wobei das Verarbeitungsmittel Zeigerdaten von mehreren Paaren von Digitalkameras trianguliert, um die Position des Zeigers relativ zu der Berührungsoberfläche zu bestimmen.
  14. Berührungssystem nach Anspruch 13, wobei das Verarbeitungsmittel mehrere Verarbeitungsstufen enthält, wobei diese Verarbeitungsstufen Bilddaten so verarbeiten, dass Bandbreite gestuft wird.
  15. Berührungssystem nach Anspruch 14, wobei eine der Verarbeitungsstufen mehrere digitale Signalprozessoren (84) enthält, die jeweils einer der Kameras zugeordnet sind, wobei die digitalen Signalprozessoren Bildpunktdaten aus den ausgewählten Bildpunkt-Teilmengen verarbeiten und die Zeigerdaten erzeugen.
  16. Berührungssystem nach Anspruch 15, wobei eine zweite der Verarbeitungsstufen einen digitalen Haupt-Signalprozessor (54) enthält, der die Zeigerdaten von den digitalen Signalprozessoren enthält, wobei der digitale Haupt-Signalprozessor die Zeigerdaten trianguliert, um die Zeigerposition zu bestimmen.
  17. Berührungssystem nach einem der Ansprüche 13 bis 16, wobei ein Bild auf die Berührungsoberfläche projiziert wird, wobei jede der Kameras eine Bildpunktanordnung proportional zur Anzahl der Bildpunkte in dem projizierten Bild enthält, und wobei das Verarbeitungsmittel in der Lage ist, die Position des Zeigers relativ zu der Berührungsoberfläche mit genügender Genauigkeit bezüglich der Bildpunkte in dem projizierten Bild aufzulösen.
  18. Berührungssystem nach einem der Ansprüche 1 bis 17, das des Weiteren einen Computer (56) umfasst, der mit dem Verarbeitungsmittel verbunden ist, wobei der Computer die Zeigerposition von dem Verarbeitungsmittel empfängt.
  19. Verfahren zum Detektieren der Position eines Zeigers relativ zu einer Berührungsoberfläche, umfassend folgende Schritte: Erfassen mehrerer überlappender Bilder eines Zeigers relativ zu der Berührungsoberfläche durch wenigstens zwei Kameras, gekennzeichnet durch das Erzeugen von Bildpunkt-Teilmengen der erfassten Bilder durch die wenigstens zwei Kameras: Empfangen der Bildpunkt-Teilmengen der erfassten Bilder und Verarbeiten von Bildpunktdaten der Bildpunkt-Teilmengen durch ein Verarbeitungsmittel zum Detektieren des Vorhandenseins des Zeigers in den erfassten Bildern und zum Bestimmen der Position des Zeigers relativ zu der Berührungsoberfläche mittels Triangulation.
  20. Verfahren nach Anspruch 19, wobei die Bildpunktdaten während des Verarbeitungsschrittes verarbeitet werden, um zu bestimmen, wann der Zeiger die Berührungsoberfläche berührt und wann der Zeiger über der Berührungsoberfläche schwebt.
  21. Verfahren nach Anspruch 20, wobei während des Verarbeitungsschrittes das Vorhandensein des Zeigers durch Berechnen von Medianlinien des Zeigers ermittelt wird und wobei die Position des Zeigers durch Berechnen des Schnittspunktes von Medianlinien und mittels Triangulation zum Bestimmen der Koordinaten des Schnittpunktes ermittelt wird.
DE60124549T 2000-07-05 2001-07-05 Kamerabasiertes beruehrungssystem Expired - Lifetime DE60124549T2 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US610481 2000-07-05
US09/610,481 US6803906B1 (en) 2000-07-05 2000-07-05 Passive touch system and method of detecting user input
US29461101P 2001-06-01 2001-06-01
US294611P 2001-06-01
PCT/CA2001/000980 WO2002003316A1 (en) 2000-07-05 2001-07-05 Camera-based touch system

Publications (2)

Publication Number Publication Date
DE60124549D1 DE60124549D1 (de) 2006-12-28
DE60124549T2 true DE60124549T2 (de) 2007-09-06

Family

ID=26968623

Family Applications (3)

Application Number Title Priority Date Filing Date
DE60143592T Expired - Lifetime DE60143592D1 (de) 2000-07-05 2001-07-05 Kamerabasiertes Berührungssystem und Verfahren
DE60124549T Expired - Lifetime DE60124549T2 (de) 2000-07-05 2001-07-05 Kamerabasiertes beruehrungssystem
DE60140909T Expired - Lifetime DE60140909D1 (de) 2000-07-05 2001-07-05 Verfahren für ein kamerabasiertes Berührungssystem

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE60143592T Expired - Lifetime DE60143592D1 (de) 2000-07-05 2001-07-05 Kamerabasiertes Berührungssystem und Verfahren

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE60140909T Expired - Lifetime DE60140909D1 (de) 2000-07-05 2001-07-05 Verfahren für ein kamerabasiertes Berührungssystem

Country Status (10)

Country Link
US (2) US7692625B2 (de)
EP (3) EP1739528B1 (de)
JP (1) JP5042437B2 (de)
CN (1) CN1310126C (de)
AT (3) ATE345525T1 (de)
AU (1) AU2001272250A1 (de)
CA (1) CA2412878C (de)
DE (3) DE60143592D1 (de)
ES (4) ES2396587T3 (de)
WO (1) WO2002003316A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8149221B2 (en) 2004-05-07 2012-04-03 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8289299B2 (en) 2003-02-14 2012-10-16 Next Holdings Limited Touch screen signal processing
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
US8405637B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly with convex imaging window
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8576172B2 (en) 2004-01-02 2013-11-05 Smart Technologies Ulc Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
DE102012217638A1 (de) 2012-09-27 2014-03-27 Robert Bosch Gmbh Interaktive Tafel und Haussteuerungssystem

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
ATE345525T1 (de) 2000-07-05 2006-12-15 Smart Technologies Inc Kamerabasiertes beruehrungssystem
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US7499033B2 (en) 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US7283126B2 (en) 2002-06-12 2007-10-16 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7256772B2 (en) * 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
CN100458670C (zh) * 2003-05-19 2009-02-04 株式会社伊特 使用了区域图像传感器的位置检测装置
US20050030293A1 (en) * 2003-08-05 2005-02-10 Lai Chih Chang Method for predicting and estimating coordinates of a touch panel
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US8120596B2 (en) * 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US7711681B2 (en) 2004-11-05 2010-05-04 Accenture Global Services Gmbh System for distributed information presentation and interaction
EP1815424B1 (de) * 2004-11-16 2019-01-09 Koninklijke Philips N.V. Berührungslose manipulation von bildern für regionale verbesserung
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
WO2007003682A1 (en) 2005-06-30 2007-01-11 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US20070064004A1 (en) * 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
CA2628512C (en) * 2005-11-18 2013-10-08 Accenture Global Services Gmbh Multiple target detection and application state navigation system
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US8209620B2 (en) * 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
EP1821184A3 (de) * 2006-02-08 2007-11-14 Almeva AG System und Verfahren zur Interaktion mit einer Anzeige durch ein Schaufenster
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
KR101127517B1 (ko) * 2006-06-15 2012-03-23 (주)나노티에스 터치 좌표 인식 방법과 이를 수행하기 위한 터치 스크린장치
US8013598B2 (en) 2006-06-19 2011-09-06 Newcom, Inc. Object detecting device for detecting object using electromagnetic induction
WO2008050468A1 (fr) * 2006-10-24 2008-05-02 Newcom, Inc. Outil opérationnel avec pièce conductrice
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
KR101330471B1 (ko) 2006-12-15 2013-11-20 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
KR101346865B1 (ko) * 2006-12-15 2014-01-02 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
US8139045B2 (en) * 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
KR100915627B1 (ko) * 2007-03-29 2009-09-04 주식회사 토비스 광학센서유닛에 의한 응답구조를 갖는 터치패널 구동방법
US20090140992A1 (en) * 2007-06-16 2009-06-04 Sunrise Telecom Incorporated Display system
CN101971128B (zh) 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US7781722B2 (en) * 2008-02-07 2010-08-24 Lumio Inc Optical touch screen assembly
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090278795A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Illumination Assembly Therefor
US8887063B2 (en) * 2008-05-21 2014-11-11 Smart Technologies Ulc Desktop sharing method and system
EP2286322A4 (de) * 2008-06-05 2012-09-05 Smart Technologies Ulc Mehrzeigerambiguitäts- und blockierungsauflösung
US8135561B2 (en) * 2008-10-10 2012-03-13 Pixart Imaging Inc. Sensing system
US8131502B2 (en) * 2008-10-10 2012-03-06 Pixart Imaging Inc. Sensing system and method for obtaining location of pointer thereof
TWI471823B (zh) 2008-07-31 2015-02-01 Pixart Imaging Inc 以移動向量在微小點陣圖上決定座標的方法
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
US8531435B2 (en) * 2008-08-07 2013-09-10 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device by combining beam information
US8305363B2 (en) * 2008-10-10 2012-11-06 Pixart Imaging Sensing system and locating method thereof
US8232511B2 (en) * 2008-10-10 2012-07-31 Pixart Imaging Inc. Sensing system adapted to sense a pointer and calculate a location of the pointer
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
TW201019191A (en) * 2008-11-07 2010-05-16 Pixart Imaging Inc Touch system and method for obtaining position of pointer thereof
CN101840281B (zh) * 2009-03-20 2012-12-05 原相科技股份有限公司 感测系统及其取得指示物的位置的方法
WO2010116308A1 (en) * 2009-04-05 2010-10-14 Radion Engineering Co. Ltd. Unified input and display system and method
CA2707783A1 (en) * 2009-06-17 2010-12-17 Smart Technologies Ulc Interactive input system and arm assembly therefor
US8860693B2 (en) * 2009-07-08 2014-10-14 Apple Inc. Image processing for camera based motion tracking
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
KR101552988B1 (ko) * 2009-07-10 2015-09-14 엘지디스플레이 주식회사 액정 표시장치의 구동장치와 그 구동방법
TWI420357B (zh) * 2009-08-28 2013-12-21 Pixart Imaging Inc 觸控系統及其指示物座標偵測方法
US7932899B2 (en) * 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system
CN102033657B (zh) * 2009-09-24 2014-04-16 原相科技股份有限公司 触控系统及其指示物高度侦测方法和指示物坐标侦测方法
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US20110095989A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system and bezel therefor
US9213414B1 (en) * 2009-11-13 2015-12-15 Ezero Technologies Llc Keyboard with integrated touch control
US20110119073A1 (en) 2009-11-18 2011-05-19 Al Cure Technologies LLC Method and Apparatus for Verification of Medication Administration Adherence
US10762172B2 (en) 2010-10-05 2020-09-01 Ai Cure Technologies Llc Apparatus and method for object confirmation and tracking
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US9183601B2 (en) 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US8666781B2 (en) * 2009-12-23 2014-03-04 Ai Cure Technologies, LLC Method and apparatus for management of clinical trials
US9256776B2 (en) 2009-11-18 2016-02-09 AI Cure Technologies, Inc. Method and apparatus for identification
US20110153360A1 (en) 2009-12-23 2011-06-23 Al Cure Technologies LLC Method and Apparatus for Verification of Clinical Trial Adherence
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
US20110128218A1 (en) * 2009-12-01 2011-06-02 Smart Technologies Ulc Interactive input system and bezel therefor
CN102096526B (zh) * 2009-12-15 2015-11-25 乐金显示有限公司 光学传感单元、显示模块和使用光学传感单元的显示装置
JP2011175543A (ja) * 2010-02-25 2011-09-08 Sanyo Electric Co Ltd 指示体検出装置及びタッチパネル
CN102236477B (zh) * 2010-04-21 2013-05-08 广达电脑股份有限公司 背景影像更新方法及触控屏幕
US8338725B2 (en) * 2010-04-29 2012-12-25 Au Optronics Corporation Camera based touch system
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
CN102346599B (zh) * 2010-08-04 2015-06-03 北京汇冠新技术股份有限公司 触摸定位方法和触摸屏
WO2012022018A1 (zh) 2010-08-20 2012-02-23 Chen Guozen 激光光学触控模块及其模拟数字转换系统与方法
TWI494824B (zh) * 2010-08-24 2015-08-01 Quanta Comp Inc 光學觸控系統及方法
CN102402340B (zh) * 2010-09-08 2014-07-09 北京汇冠新技术股份有限公司 触摸定位方法、触摸屏、触摸系统和显示器
EP2447811B1 (de) 2010-11-02 2019-12-18 LG Display Co., Ltd. Infrarotsensormodul, zugehöriges Berührungserfassungsverfahren und auf dieses angewendetes automatisches Kalibrierungsverfahren
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
US9019239B2 (en) * 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
US9665767B2 (en) 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US8963883B2 (en) 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
US9262011B2 (en) 2011-03-30 2016-02-16 Smart Technologies Ulc Interactive input system and method
CA2832974C (en) 2011-04-13 2018-01-23 Google Inc. Click disambiguation on a touch-sensitive input device
CN102294119A (zh) * 2011-08-02 2011-12-28 广州市迪拓信息科技有限公司 一种触控设备感应控制方法及系统
WO2013024430A1 (en) 2011-08-16 2013-02-21 Imax Corporation Hybrid image decomposition and projection
US10558845B2 (en) 2011-08-21 2020-02-11 Aic Innovations Group, Inc. Apparatus and method for determination of medication location
CN102306053B (zh) * 2011-08-29 2014-09-10 Tcl集团股份有限公司 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN102323866B (zh) * 2011-09-01 2013-08-21 广东威创视讯科技股份有限公司 一种摄像式触摸控制方法及其装置
WO2013057717A1 (en) 2011-10-20 2013-04-25 Imax Corporation Distortion compensation for image projection
EP2769265B1 (de) 2011-10-20 2021-06-16 Imax Corporation Unsichtbare oder schwer erkennbare bildausrichtung in doppelprojektionssystemen
US8896688B2 (en) 2011-11-04 2014-11-25 Hewlett-Packard Development Company, L.P. Determining position in a projection capture system
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
CN102609153A (zh) * 2012-01-29 2012-07-25 胡世曦 一种计算物体与工作平面的接触位置的装置
JP6057407B2 (ja) * 2012-02-22 2017-01-11 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
TWI470510B (zh) * 2012-04-19 2015-01-21 Wistron Corp 光學觸控裝置及觸控感測方法
TWI475446B (zh) * 2012-04-24 2015-03-01 Wistron Corp 光學式觸控系統及其擷取訊號調整之方法
CN103488348B (zh) * 2012-06-11 2016-09-07 东友科技股份有限公司 影像感测器群组的定位方法
CN102789340B (zh) * 2012-06-27 2015-12-16 深圳市巨龙科教高技术股份有限公司 一种电子白板的白板坐标获取方法、装置及电子白板
CN102778979A (zh) * 2012-06-28 2012-11-14 广州视睿电子科技有限公司 光学触摸方法及其装置
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
TWI495949B (zh) * 2012-10-24 2015-08-11 Pixart Imaging Inc 光學觸控系統之曝光機制及使用該機制之光學觸控系統
TWI462033B (zh) * 2012-11-02 2014-11-21 Wistron Corp 觸控系統及觸控系統的繪圖方法
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9696867B2 (en) 2013-01-15 2017-07-04 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9317916B1 (en) 2013-04-12 2016-04-19 Aic Innovations Group, Inc. Apparatus and method for recognition of medication administration indicator
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
JP6202942B2 (ja) * 2013-08-26 2017-09-27 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
CN104423720B (zh) * 2013-09-02 2018-01-05 颜涌 一种基于摄像头的电脑输入设备和方法
CN104423560B (zh) * 2013-09-09 2018-11-13 联想(北京)有限公司 一种信息处理方法和电子设备
US9824297B1 (en) 2013-10-02 2017-11-21 Aic Innovations Group, Inc. Method and apparatus for medication identification
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9478124B2 (en) 2013-10-21 2016-10-25 I-Interactive Llc Remote control with enhanced touch surface input
US9625992B2 (en) 2013-10-21 2017-04-18 I-Interactive Llc Remote control with dual activated touch sensor input
CN103530061B (zh) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 显示装置及控制方法
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN104679353B (zh) * 2013-11-29 2017-08-25 纬创资通股份有限公司 光学触控装置及触控点坐标的计算方法
US9317150B2 (en) * 2013-12-28 2016-04-19 Intel Corporation Virtual and configurable touchscreens
TWI528226B (zh) * 2014-01-15 2016-04-01 緯創資通股份有限公司 影像式觸控裝置及其控制方法
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
GB2522248A (en) * 2014-01-20 2015-07-22 Promethean Ltd Interactive system
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
CN103973975B (zh) * 2014-04-10 2017-11-07 北京智谷睿拓技术服务有限公司 交互方法、装置及用户设备
TWI578295B (zh) * 2014-04-21 2017-04-11 緯創資通股份有限公司 顯示器及其亮度調整方法
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
US10431145B2 (en) * 2014-07-30 2019-10-01 Hewlett-Packard Development Company, L.P. Transparent whiteboard display
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
JP6464624B2 (ja) * 2014-09-12 2019-02-06 株式会社リコー 画像処理システム、画像処理装置、方法およびプログラム
JP6665415B2 (ja) * 2015-03-30 2020-03-13 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
EP3685390A4 (de) 2017-09-19 2020-10-21 Adam Hanina Vorrichtung und verfahren zur erkennung von verdächtigen aktivitäten
EP3743179B1 (de) 2018-01-25 2023-08-09 Neonode Inc. Sphärischer koordinatensensor zur fahrzeuginsassenüberwachung
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
KR102469722B1 (ko) 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11281337B1 (en) 2019-09-24 2022-03-22 Apple Inc. Mirror accessory for camera based touch detection

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
JPS61262917A (ja) 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
US4822145A (en) 1986-05-14 1989-04-18 Massachusetts Institute Of Technology Method and apparatus utilizing waveguide and polarized light for display of dynamic images
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4907156A (en) * 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
JPH01320521A (ja) 1988-06-22 1989-12-26 Wacom Co Ltd 電子黒板装置及びその筆記具等
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
US5448263A (en) 1991-10-21 1995-09-05 Smart Technologies Inc. Interactive display system
GB9201949D0 (en) 1992-01-30 1992-03-18 Jenkin Michael Large-scale,touch-sensitive video display
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5724743A (en) 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
EP0594146B1 (de) 1992-10-22 2002-01-09 Advanced Interconnection Technology, Inc. Einrichtung zur automatischen optischen Prüfung von Leiterplatten mit darin verlegten Drähten
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5359155A (en) 1993-03-25 1994-10-25 Tiger Scientific Corp. Illumination apparatus for a digitizer tablet
US5729704A (en) 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
GB2286100A (en) 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
US5771039A (en) 1994-06-06 1998-06-23 Ditzik; Richard J. Direct view display device integration techniques
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5554828A (en) 1995-01-03 1996-09-10 Texas Instruments Inc. Integration of pen-based capability into a field emission device system
US5736686A (en) 1995-03-01 1998-04-07 Gtco Corporation Illumination apparatus for a digitizer tablet with improved light panel
KR19990008158A (ko) 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JP3436828B2 (ja) 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
JPH09106320A (ja) 1995-08-24 1997-04-22 Symbios Logic Inc 図形入力装置および図形入力方法
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09190284A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
US5991456A (en) * 1996-05-29 1999-11-23 Science And Technology Corporation Method of improving a digital image
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US5819201A (en) 1996-09-13 1998-10-06 Magellan Dis, Inc. Navigation system with vehicle service information
JPH10124689A (ja) 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP3625349B2 (ja) * 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
WO1998019201A1 (en) 1996-10-29 1998-05-07 Xeotron Corporation Optical device utilizing optical waveguides and mechanical light-switches
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
WO1998044316A1 (en) 1997-04-02 1998-10-08 Goszyk Kurt A Adjustable area coordinate position data-capture system
JP3876942B2 (ja) * 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6161066A (en) * 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6243074B1 (en) 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU1114899A (en) 1997-10-22 1999-05-10 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
EP1717684A3 (de) 1998-01-26 2008-01-23 Fingerworks, Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingaben
AU2439399A (en) 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000089913A (ja) 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6972753B1 (en) 1998-10-02 2005-12-06 Semiconductor Energy Laboratory Co., Ltd. Touch panel, display device provided with touch panel and electronic equipment provided with display device
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
TW459192B (en) * 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
US6671419B1 (en) * 1999-07-02 2003-12-30 Intel Corporation Method for reducing shadows and/or noise in a digital image
JP2001060145A (ja) 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP3834766B2 (ja) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6690397B1 (en) 2000-06-05 2004-02-10 Advanced Neuromodulation Systems, Inc. System for regional data association and presentation and method for the same
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
ATE345525T1 (de) 2000-07-05 2006-12-15 Smart Technologies Inc Kamerabasiertes beruehrungssystem
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6747663B2 (en) 2000-08-24 2004-06-08 Sun Microsystems, Inc. Interpolating sample values from known triangle vertex values
NO311740B1 (no) 2000-09-11 2002-01-14 Tormod Njoelstad Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3793014B2 (ja) 2000-10-03 2006-07-05 キヤノン株式会社 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法
US6680834B2 (en) * 2000-10-04 2004-01-20 Honeywell International Inc. Apparatus and method for controlling LED arrays
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6518600B1 (en) 2000-11-17 2003-02-11 General Electric Company Dual encapsulation for an LED
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4551018B2 (ja) 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US6628216B2 (en) 2002-02-13 2003-09-30 Intersil Americas Inc. Calibration of resistor ladder using difference measurement and parallel resistive correction
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20040144760A1 (en) 2002-05-17 2004-07-29 Cahill Steven P. Method and system for marking a workpiece such as a semiconductor wafer and laser marker for use therein
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
US7260257B2 (en) 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7265752B2 (en) 2004-01-09 2007-09-04 Microsoft Corporation Multi-chart geometry images
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8466885B2 (en) 2003-02-14 2013-06-18 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8289299B2 (en) 2003-02-14 2012-10-16 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8576172B2 (en) 2004-01-02 2013-11-05 Smart Technologies Ulc Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US8149221B2 (en) 2004-05-07 2012-04-03 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US8384693B2 (en) 2007-08-30 2013-02-26 Next Holdings Limited Low profile touch panel systems
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8405637B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly with convex imaging window
DE102012217638A1 (de) 2012-09-27 2014-03-27 Robert Bosch Gmbh Interaktive Tafel und Haussteuerungssystem
EP2713343A2 (de) 2012-09-27 2014-04-02 Robert Bosch Gmbh Interaktive Tafel und Haussteuerungssystem

Also Published As

Publication number Publication date
EP1739529A1 (de) 2007-01-03
DE60140909D1 (de) 2010-02-04
ES2396587T3 (es) 2013-02-22
EP1739528A1 (de) 2007-01-03
AU2001272250A1 (en) 2002-01-14
US20050077452A1 (en) 2005-04-14
EP1739529B1 (de) 2010-12-01
JP2004502261A (ja) 2004-01-22
CA2412878C (en) 2015-02-03
ATE453147T1 (de) 2010-01-15
CN1440539A (zh) 2003-09-03
EP1739528B1 (de) 2009-12-23
ATE490501T1 (de) 2010-12-15
EP1297488A1 (de) 2003-04-02
US20100188370A1 (en) 2010-07-29
ES2279823T3 (es) 2007-09-01
ATE345525T1 (de) 2006-12-15
DE60143592D1 (de) 2011-01-13
CN1310126C (zh) 2007-04-11
ES2340945T3 (es) 2010-06-11
WO2002003316A1 (en) 2002-01-10
EP1297488B1 (de) 2006-11-15
US7692625B2 (en) 2010-04-06
ES2435248T3 (es) 2013-12-17
JP5042437B2 (ja) 2012-10-03
US9176627B2 (en) 2015-11-03
CA2412878A1 (en) 2002-01-10
DE60124549D1 (de) 2006-12-28

Similar Documents

Publication Publication Date Title
DE60124549T2 (de) Kamerabasiertes beruehrungssystem
US8669959B2 (en) Passive touch system and method of detecting user input
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
US6947032B2 (en) Touch system and method for determining pointer contacts on a touch surface
US7532206B2 (en) System and method for differentiating between pointers used to contact touch surface
DE112008003993B4 (de) Systeme und Verfahren zum Bestimmen von Berührungsstellen unter Verwendung von gestörtem Licht
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102015110495A1 (de) Informationsverarbeitungsvorrichtung, die ein bestimmtes objekt in einem aufgenommenen bild erkennt, und verfahren zu deren steuerung
EP1133752A1 (de) Eingabevorrichtung für einen computer
DE112009004947T5 (de) Anzeige mit einem optischen Sensor
DE112019000857T5 (de) Referenzpositionseinstellverfahren und Vorrichtung zur Anzeige eines virtuellen Bilds
EP1983406A1 (de) Verfahren und Vorrichtung zur Eingabe von Daten in eine Datenverarbeitungsanlage
DE102014012516A1 (de) Informationsverarbeitungsverfahren und elektrische Vorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition