DE69938178T2 - Bewegungsverfolgungssystem - Google Patents

Bewegungsverfolgungssystem Download PDF

Info

Publication number
DE69938178T2
DE69938178T2 DE69938178T DE69938178T DE69938178T2 DE 69938178 T2 DE69938178 T2 DE 69938178T2 DE 69938178 T DE69938178 T DE 69938178T DE 69938178 T DE69938178 T DE 69938178T DE 69938178 T2 DE69938178 T2 DE 69938178T2
Authority
DE
Germany
Prior art keywords
ultrasonic
location
inertial
tracking
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69938178T
Other languages
English (en)
Other versions
DE69938178D1 (de
Inventor
Eric M. Arlington FOXLIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Massachusetts Institute of Technology
Original Assignee
Massachusetts Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Massachusetts Institute of Technology filed Critical Massachusetts Institute of Technology
Application granted granted Critical
Publication of DE69938178D1 publication Critical patent/DE69938178D1/de
Publication of DE69938178T2 publication Critical patent/DE69938178T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/16Systems for determining distance or velocity not using reflection or reradiation using difference in transit time between electrical and acoustic signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/186Determination of attitude
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait

Description

  • Hintergrund
  • Die vorliegende Erfindung betrifft die Bewegungsverfolgung.
  • Die Bewegungsverfolgung kann eine Vielzahl an Messmoden enthalten, welche inertiale und akustische Messmoden enthalten, um den Ort und die Richtung bzw. Orientierung eines Körpers zu bestimmen.
  • Die Inertialbewegungsverfolgung basiert auf dem Messen der Linearbeschleunigung und Winkelgeschwindigkeit um eine Gruppe an üblicherweise orthogonalen Achsen herum. In einem Ansatz erzeugen mehrere sich drehende Gyroskope Kräfte, welche zu den Geschwindigkeiten proportional sind, mit welchen sich die Drehachsen derselben in Erwiderung auf die Drehung eines verfolgten Körpers drehen, an welchem die Gyroskope angebracht sind. Diese Kräfte werden gemessen und verwendet, um die Winkelgeschwindigkeit des Körpers zu schätzen. Statt Gyroskopen können mikrobearbeitete Vibrationselemente und auf optischen Wellenleitern basierende Vorrichtungen verwendet werden.
  • Beschleunigungsmesser erzeugen Signale, welche zu Kräften proportional sind, welche sich aus der Linearbeschleunigung ergeben. Bei einem Inertialverfolgungssystem werden die Signale der Winkelgeschwindigkeit und Beschleunig integriert, um die Lineargeschwindigkeit, Linearverschiebung und gesamten Drehwinkel zu bestimmen.
  • Da die durch gyroskopische Vorrichtungen erzeugten Signale geräuschvoll bzw. rauschig sind, führt der Integrationsprozess zur Akkumulation von Rauschkomponenten, welche im Allgemeinen als „Drift" bekannt ist. Miniaturisierte und kostengünstige, gyroskopische Vorrichtungen weisen üblicherweise einen gößeren Fehler auf. Die Driftgeschwindigkeiten können so hoch wie mehrere Grad pro Sekunde für einen Körper in der Ruhestellung und mehrere Grad für jede Drehung des Körpers um 90 Grad betragen. Fehler in Orientierungsschätzungen beeinträchtigen auch die Ortschätzung, da die geschätzte Orientierung des Körpers zum Umwandeln der Beschleunigungsmessungen in den feststehenden Referenzrahmen der Umgebung vor der Integration derselben verwendet wird. Eine Ungenauigkeit bei dieser Umwandlung kann zu Schwerkraft führen, welche als Vorspannung von sich ergebenden Horizontalbeschleunigungsmessungen erscheint.
  • Eine Weise zum Korrigieren der Drift ist zusätzliche Sensoren zu verwenden, wie beispielsweise Neigungsmesser und ein Kompass, um die Drift der integrierten Inertialmessungen gelegentlich oder kontinuierlich zu korrigieren.
  • Ein anderer Ansatz zur Bewegungsverfolgung verwendet akustische Wellen zum Messen eines Abstands zwischen einem oder mehreren Punkten auf einem Körper und feststehenden Referenzpunkten in der Umgebung. In einer Anordnung, „Outside-in"-Anordnung genannt, emittiert eine Gruppe von akustischen Emitter an feststehenden Stellen auf dem Körper Impulse, welche durch eine Gruppe von Mikrofonen an den feststehenden Referenzpunkten in der Umgebung empfangen werden. Die Flugzeit von einem Emitter zu einem Mikrofon ist zu einer Schätzung des Abstands zwischen dem Emitter und dem Mikrofon (d. h. der Entfernung) proportional. Die Schätzungen der Entfernung von den Emitter zu den entsprechenden Mikrofonen werden verwendet, um den Ort der Emitter zu triangulieren. Die Orte von mehreren Emitter auf dem Körper werden kombiniert, um die Orientierung des Körpers zu schätzen.
  • Andere Messmoden, wie beispielsweise die optische Verfolgung von Lichtquellen auf einem Körper, können auch verwendet werden, um die Bewegung des Körpers zu verfolgen.
  • Die Veröffentlichung Foxlin und andere: „ Miniature 6-DOF inertial system for tracking HMDs" in den Verfahren von SPIE, Bellingham VA, US Vol 3362, von April 1998, Seiten 214 bis 282, schlägt ein kombiniertes akustisches und inertiales Positions- und Orientierungsverfolgungssystem vor. Die Positionsmessung von Inertialsinnen bzw. Inertialwahrnehmungen (inertial senses) wird für Driften unter Verwendung von Ultraschall-Flugzeit-Entfernungsmesssystemen korrigiert. Die akustische Messung wird durch eine unidirektionale Flugzeitmessung zwischen einem Sender, welcher geeignet ist, um auf einem Menschen verwendet zu werden, und einem Empfänger, welcher auf bekannten Koordinaten platziert wird, erzielt. Der Empfänger überträgt ein Infrarot-Steuersignal, auf welches die Sender unmittelbar durch Emittieren eines Ultraschallsignals ansprechen. Basierend auf der Schallgeschwindigkeit bestimmen drei Empfänger Entfernungsmessungen. Die Entfernungsmessungen werden zum Auffrischen bzw. Aktualisieren der Ortschätzung und Orientierungsschätzung des Körpers verwendet.
  • US 5.495.427 beschreibt eine Ultraschall-Einrichtung zur Positions- und Orientierungsverfolgung. Auf einem Helm ist eine Vielzahl an Sensoren angeordnet, welche ein Ultraschallsignal erfassen, welches durch einen einzigen entfernten Sender emittiert wird. Basierend auf den Phasendifferenzen in den erfassten Signalen wird eine Orientierung des Helms in Bezug auf den Sender bestimmt.
  • US 5.491.670 offenbart ein System und Verfahren zum Erfassen einer Position eines geführten Fahrzeugs. In einem Arbeitsraum ist eine Vielzahl an Referenzvorrichtungen angeordnet, welche Töne emittieren. Flugzeitmessungen jedes Tons zu einem auf dem geführten Fahrzeug platzierten Sensor werden zum Messen der relativen Abstände des Fahrzeugs zu jeder Referenzvorrichtung verwendet. Basierend auf den bekannten Positionen der Referenzvorrichtungen wird die Fahrzeugposition durch Triangulation bestimmt.
  • In der Veröffentlich „A Survey of Position Trackers" von Meyer und anderen, Presence, Cambridge, MA, US, Vol. 1, Nr. 2, 21. März 1992, Seiten 173 bis 200, und in der Veröffentlichung „Position trackers for Head Mounted Display systems: A survey" von Devish Kumar Bhatnagar an der Universität von Carolina, Department of Computer Sciences, werden akustische Verfolgungssysteme erörtert. Anordnungen von Sensoren und Sendern in feststehenden Positionen und auf dem beweglichen Körper werden in verschiedenen Kombinationen erörtert.
  • US 4.807.202 offenbart Sensoren auf einem beweglichen Körper, welche Ultraschallsignale von Sendern an feststehenden Orten empfangen, um eine Veränderung der Orientierung des beweglichen Körpers zu bestimmen.
  • Der Artikel „SCAAT: Incremental Tracking with Incomplete Information" von Greg Welch und Gary Bishop, veröffentlicht in Computer Graphics, T Whitted, Los Angeles, CA, USA, ACM Press Addison Wesley, S. 333–344, (1997), offenbart, dass eine Einzelobservation eini ge Informationen über den Zustand des Benutzers liefert und folglich verwendet werden kann, um eine vorausgegangene Schätzung inkremental zu verbessern.
  • Zusammenfassung
  • Die Erfindung liefert ein Verfahren, welches in Anspruch 1 definiert ist.
  • Vorteile der Erfindung enthalten das Liefern einer Verfolgungsfähigkeit mit einem Freiheitsgrad 6, welche über einen im Wesentlichen unbegrenzten Raum funktionieren kann, in welchem eine erweiterbare Konstellation von Ultraschallbaken installiert ist. Inertialmessungen liefern eine problemlose und ansprechende Abtastung der Bewegung, während die Ultraschallmessungen eine anhaltende Korrektur von Fehlern liefern, wie beispielsweise diese, welche durch Drift der Inertialverfolgungskomponente des Systems verursacht werden. Kleine und kostengünstige Inertialsensoren, welche oft eine relativ große Drift aufweisen, können verwendet werden, obwohl sie noch ein Gesamtsystem ohne unbegrenzte Drift liefern. Kleine, leichte Inertialsensoren eignen sich sehr zur auf dem Kopf montierten Verfolgung (head mounted tracking) für virtuelle oder erweiterte Realitäts-Displaysysteme. Durch das Korrigieren der Drift unter Verwendung von Ultraschallmessungen werden Driftkorrekturmessungen nicht erfordert, welche auf äußere Faktoren, wie beispielsweise Magnetfeldschwankungen, empfindlich reagieren können. Die Konstellation der Ultraschallbaken kann leicht erweitert werden, da jede Bake eigenständig funktioniert und keine Notwendigkeit für die Verdrahtung unter den Baken besteht. Die Verfolgungsvorrichtung ist nur auf die Verwendung einer kleinen Anzahl an Ultraschallbaken zu einer Zeit angewiesen, wodurch zugelassen wird, dass der Raum, in welchem die Verfolgungsvorrichtung arbeitet, ungleiche Bereiche aufweist, wie beispielsweise mehrere Zimmer in einem Gebäude.
  • Ein anderer Vorteil der Erfindung, ist dass durch das Verwenden einer „Inside-out"-Konfiguration keine Latenz in akustischen Entfernungsmessungen aufgrund der Bewegung des Körpers besteht nachdem eine akustische Welle emittiert wurde.
  • Noch ein anderer Vorteil der Erfindung ist, dass die Verfolgung unter Verwendung von Inertialmessungen selbst dann fortfährt, wenn keine akustischen Messungen gemacht werden können, beispielsweise aufgrund des Ausschlusses der Baken. Die Drift in der Inertialverfolgung wird dann korrigiert, sobald akustische Messungen noch einmal gemacht werden können.
  • Bei noch einem anderen Vorteil liefert die Erfindung eine Sichtlinienredundanz, wodurch ein oder mehrere Wege zwischen den Emittern und Sensoren gesperrt werden können, während die Verfolgung eines Körpers weiterhin zugelassen wird.
  • Andere Merkmale und Vorteile der Erfindung werden aus der folgenden Beschreibung und den Ansprüchen offensichtlich sein.
  • Beschreibung der Zeichnungen
  • 1 zeigt eine Verfolgungsvorrichtung und eine Konstellation von akustischen Baken, welche zum Verfolgen der Vorrichtung verwendet werden;
  • 2 zeigt die Komponenten eines Prozessors einer Verfolgungsvorrichtung;
  • 3 veranschaulicht einen Ansatz einer kombinierten inertialen und akustischen Verfolgung;
  • 4 veranschaulicht eine Inertialmesseinheit (IMU);
  • 5 zeigt eine Ultraschall-Entfernungsmesseinheit (URM) und eine Ultraschallbake;
  • 6 zeigt eine Eingabe/Ausgabe-Schnittstelle, welche in einem Verfolgungsvorrichtungsprozessor verwendet wird, um Inertial- und Ultraschalmesseinheiten zu koppeln;
  • 7a veranschaulicht die Navigations- und Körper-Referenzrahmen;
  • 7b veranschaulicht wechselseitige Verfolgungsvorrichtungen;
  • 8 ist ein Signalablaufdiagramm eines Inertialverfolgers bzw. einer Inertialverfolgungseinrichtung;
  • 9 ist ein Signalablaufdiagramm eines Ultraschall-Entfernungsmessuntersystems;
  • 10 ist ein Signalablaufdiagramm einer Verfolgungsvorrichtung, welche eine Inertialverfolgungseinrichtung, eine Kalman-Vorhersageeinrichtung und Aktualisierungseinrichtungselemente enthält;
  • 11 ist ein Signalablaufdiagramm einer Kalman-Vorhersageeinrichtung;
  • 12 ist ein Signalablaufdiagramm einer Kalman-Aktualisierungseinrichtung;
  • 13 ist ein Ablaufplan eines Verfolgungsablaufs;
  • 14a veranschaulicht die Verfolgung eines zweiten Körpers relativ zu einem ersten verfolgten Körper;
  • 14b veranschaulicht eine wechselseitige Verfolgung mehrerer Vorrichtungen;
  • 15 veranschaulicht ein auf dem Kopf montiertes Anzeigesystem;
  • 16 veranschaulicht ein Kameraverfolgungssystem für das Fernsehen; und
  • 17 veranschaulicht die Verfolgung von Körpern in einem Kraftfahrzeug.
  • Beschreibung
  • In Bezug auf 1 kann sich eine Verfolgungsvorrichtung 100, welche eine Schätzung des Ortes und der Orientierung derselben aufrechterhält, innerhalb eines großen Raumes frei bewegen. Die Verfolgungseinrichtung 100 kann beispielsweise an einem Blickfeld-Darstellungsgerät (HUD) auf einem Kopf einer Bedienperson befestigt sein und die Verfol gungsvorrichtung 100 bewegt sich durch den Raum und verändert die Orientierung, da sich die Bedienperson durch den Raum bewegt und den Kopf derselben ausrichtet. Die Verfolgungsvorrichtung 100 enthält einen Prozessor 130, welcher an eine Inertialmesseinheit (IMU) 140 gekoppelt ist, welche Inertialmessungen liefert, welche die Linearbeschleunigung und Geschwindigkeiten der Drehung betreffen. Der Prozessor 130 verwendet die Inertialmessungen zum Bestimmen der Bewegung der Verfolgungsvorrichtung 100, da sie sich durch den Raum bewegt.
  • Der Prozessor 130 ist auch an eine Anordnung von drei Ultraschall-Entfernungsmesseinheiten (URM) 110 gekoppelt, welche zum Empfangen von akustischen Signalen verwendet werden, welche von einer Ultraschallbakenanordnung 120, einer „Konstellation" von Baken, gesendet werden. Die Ultraschallbakenanordnung 120 enthält unabhängige Ultraschallbaken 122 an feststehenden Orten in der Umgebung, welche beispielsweise an der Decke des großen Raumes in einem rechteckigen Muster, wie beispielsweise auf einem Gitter mit einem Abstand von 2 Fuß (60,96 cm), angeordnet sind. Der Prozessor 130 verwendet die Signale von bestimmten Ultraschallbaken 122 sowie bekannte dreidimensionale Orte dieser Baken, um die Entfernung zu diesen Baken zu schätzen und dadurch die Bewegung für die Verfolgungsvorrichtung 100 abzutasten. Jede Ultraschallbake 122 sendet einen Ultraschallimpuls 114 in Erwiderung auf ein Infrarot-Befehlsignal 112, welches von der Verfolgungsvorrichtung 100 gesendet wurde. Insbesondere überträgt jede URM 110 auf der Verfolgungsvorrichtung 100 Infrarot-Signale (IR-Signale) zu allen Ultraschallbaken 122. Diese IR-Signale enthalten Adressinformationen, so dass nur eine Bake oder eine geringe Anzahl an Baken jedes IR-Signal als für dieselbe vorgesehen erkennt und auf das Signal anspricht. In Erwiderung auf ein IR-Signal überträgt eine adressierte Bake unmittelbar einen Ultraschallimpuls, welcher dann durch eine oder mehrere URM 110 empfangen wird. Da der Prozessor 130 weiß, dass die adressierte Bake unmittelbar auf den IR-Befehl angesprochen hat, bestimmt er die Flugzeit durch Messen der Verzögerung vom Ausgeben des IR-Befehls bis zum Erfassen des Ultraschallimpulses. Die Flugzeit des Ultraschallimpulses wird dann zum Schätzen der Entfernung zur Bake verwendet, welche dann verwendet wird, um die Position und Orientierung der Verfolgungsvorrichtung 100 zu aktualisieren.
  • Sowohl die Inertialmessungen als auch die auf einem Ultraschallsignal basierenden Messungen weisen Beschränkungen auf. Das Verlassen auf jeweils einen der beiden Messmoden ist nicht so genau wie das Kombinieren der Messungen. Die Verfolgungsvorrichtung 100 kombiniert die Messungen von beiden Messmoden und passt die Positions- und Orientierungsschätzung derselben (d. h. 6 Freiheitsgrade, 6-DOF") an, um Messungen von beiden Moden während sie verfügbar sind oder nach einer Verzögerung wiederzugeben. Dafür veranstaltet der Prozessor 130 eine Implementierung eines erweiterten Kalman-Filters (EKF), welches verwendet wird, um die Messungen zu Kombinieren und anhaltende Schätzungen des Ortes und der Orientierung der Verfolgungsvorrichtung 100 sowie eine Schätzung der Ungewissheit bei solchen Schätzungen aufrechtzuerhalten.
  • In Bezug auf 2 enthält der Prozessor 130 eine Zentraleinheit (CPU) 200, wie beispielsweise einen Intel 80486 Mikroprozessor, einen Programmspeicher 220, wie beispielsweise einen Festwertspeicher (ROM), und einen Arbeitsspeicher 230, wie beispielsweise einen dynamischen Direktzugriffsspeicher (RAM). Die CPU 200 ist auch an eine Eingabe/Ausgabe-Schnittstelle 210 gekoppelt, welche eine Schnittstelle zur IMU 140 und URM 110 liefert. Die Eingabe/Ausgabe-Schnittstelle 210 enthält eine digitale Logik, welche die IMU 140 und URM 110 mit digitalen Schnittstellen versorgt.
  • Die IMU 140 liefert einen seriellen Datenstrom 201, welcher Inertialmessungen kodiert. Die Eingabe/Ausgabe-Schnittstelle 210 wandelt diese seriellen Daten in eine parallele Form 212 zur Übertragung zur CPU 200 um. Jede URM 110 nimmt ein serielles Signal 211 an, welches zum Antreiben einer IR-Lumineszenzdiode 510 verwendet wird, um die IR-Steuersignale zu den Ultraschallbaken 122 zu übertragen (1). Die Eingabe/Ausgabe-Schnittstelle 210 nimmt Adressinformationen von der CPU 200 an, welche eine oder mehrere Ultraschallbaken identifizieren, und versorgt jede URM 110 mit dem seriellen Signal, welche dann einer IR-Übertragung das serielle Signal auferlegen (z. B. durch Amplitudenmodulation). Alle URM 110, welche gleichzeitig das gleiche IR-Signal übertragen, werden mit dem gleichen seriellen Signal versorgt. Jede URM 110 versorgt wiederum die Eingabe/Ausgabe-Schnittstelle 210, welche die jeweilige Ankunft der Ultraschallimpulse anzeigt, mit einem logischen Signal 202. Die Eingabe/Ausgabe-Schnittstelle 210 enthält Zeitgeber, welche die Flugzeit der Ultraschall impulse von den Baken bestimmen, und bestimmt dadurch die Entfernungsschätzungen zu den Baken. Die CPU 200 wird mit diesen Entfernungsschätzungen versorgt.
  • Eine Implementierung eines Verfolgungsalgorithmus wird im Programmspeicher 220 gespeichert und durch die CPU 200 ausgeführt, um die von der Eingabe/Ausgabe-Schnittstelle 210 erhaltenen Messungen in Positions- und Orientierungsschätzungen umzuwandeln. Die CPU 200 ist auch an einen Festdatenspeicher 240 gekoppelt, welcher Informationen, wie beispielsweise eine vorbestimmte Karte der Orte der Ultraschallbaken, und die Orte der Mikrofone der URM 110 enthält. Der Prozessor 130 enthält auch eine Kommunikationsschnittstelle 260 zum Koppeln der CPU 200 mit anderen Vorrichtungen, wie beispielsweise einer Anzeigevorrichtung 280, welche die Anzeige derselben basierend auf der Position und Orientierung der Verfolgungsvorrichtung 100 modifiziert.
  • Die Betätigung des Systems kann durch Bezug auf 3 verstanden werden, welche eine zweidimensionale Ansicht des in 1 gezeigten Raumes (von oben) ist. Die Folge an offenen bzw. leeren Kreisen und Pfeilen 310a-e stellt den Ist-Ort und die Ist-Orientierung der Verfolgungsvorrichtung 100 an jedem Schritt einer Folge von Zeitschritten dar. Basierend auf vorangehenden Messungen und Inertialmessungen im ersten Zeitschritt, stellen der gefüllten Kreis und Pfeil 312a die Schätzung durch die Verfolgungsvorrichtung 100 des Ortes und der Orientierung der Verfolgungsvorrichtung im ersten Zeitschritt dar. Im nächsten Zeitschritt bewegt sich die Verfolgungsvorrichtung 100 zur Position 310b und die Verfolgungsvorrichtung 100 aktualisiert basierend auf einer neuen Inertialmessung die Positionsschätzung derselben auf 312b. Dies wird für den nächsten Zeitschritt mit der Ist-Position 310c und der geschätzten Position 312c wiederholt.
  • Nach dem Erreichen der Position 310b sendet die Verfolgungsvorrichtung 100 einen IR-Befehl, welcher an einen der Ultraschallwandler 122 adressiert ist, wie durch die punktierte Linie 320 veranschaulicht. Nach dem Empfangen des IR-Befehls (im Wesentlichen ohne Verzögerung) überträgt der Ultraschallwandler 122 einen Ultraschallimpuls, wie durch die Welle 324 veranschaulicht. Die Welle 324 erreicht die Verfolgungsvorrichtung 100 etwas später am Ist-Ort 330. Basierend auf der Ankunftszeit schätzt die Verfolgungsvorrichtung 100, dass sie sich an der Position 332 befand, als die Welle 326 dieselbe erreichte.
  • Im nächsten Zeitschritt schätzt die Verfolgungsvorrichtung 100 erst die Position 312d derselben basierend auf einer Inertialmessung. Unter Verwendung der Entfernungsinformationen, welche die Trennung des Ortes des Ultraschallwandlers 122 und des Ortes 332 betreffen, und der gemessenen Flugzeit der Ultraschallwelle berechnet die Verfolgungsvorrichtung 100 eine verfeinerte bzw. verbesserte Positionsschätzung 312d'. Das Verfahren wiederholt sich unter Verwendung von Inertialmessungen an der wahren Position 310e und geschätzten Position 312e.
  • Im Allgemeinen kann sowohl eine Inertialmessung als auch eine Ultraschallmessung in jedem Zeitschritt verwendet werden, obwohl eine Ultraschallmessung weniger häufig ausgeführt werden kann. In jedem Zeitschritt wird sowohl der Ort als auch die Orientierung (Lage) aktualisiert. Die Ultraschallimpulse können Informationen, welche sowohl den Ort als auch die Orientierung betreffen, durch die Verwendung von mehreren Mikrofonen liefern, welche relativ zueinander versetzt sind.
  • In Bezug auf 4 enthält eine Inertialmesseinheit (IMU) 140 drei Winkelgeschwindigkeitssensoren (z. B. mikrobearbeitete, vibrierende Rotationssensoren oder kleine, sich drehende Gyroskope) 420a-c, und drei Linearbeschleunigungssensoren 410a-c. Die Sensoren sind angeordnet entlang drei orthogonalen Achsen zu liegen, welche im Referenzrahmen der Verfolgungsvorrichtung 100 feststehend bleiben. Jeder Beschleunigungssensor liefert ein Signal, welches zur Beschleunigung entlang der entsprechenden Achse im Allgemeinen proportional ist, und jeder Winkelgeschwindigkeitssensor liefert ein Signal, welches zur Geschwindigkeit der Drehung um die entsprechende Achse herum im Allgemeinen proportional ist.
  • Da sich die Orientierung der Inertialmesseinheit 140 verändert, entsprechen die Signale, wie z. B. die Beschleunigungssignale, den sich verändernden Richtungen im feststehenden (Navigations-) Referenzrahmen des Raumes. Die Inertialmesseinheit 140 enthält auch eine Signalschnittstelle 430, welche die Signale 411 von allen sechs Beschleunigungsmessern und Winkelgeschwindigkeitssensoren annimmt und einen seriellen Datenstrom 413 überträgt, welcher digitale Darstellungen der Beschleunigungs- und Winkelgeschwindigkeitssignale multiplext. Wie weiter unten erörtert wird, sind die Beschleunigungs- und Winkelgeschwindigkeitssignale mangelhaft und können zusätzliche Vorspannungs- und Skalierungsungenauigkeiten auf weisen. Diese Skalierungs- und Vorspannungsungenauigkeiten können von der Bewegung der Vorrichtung abhängen.
  • In Bezug auf 5 enthält jede Ultraschallmesseinheit 110 eine Infrarot (IR)-Lumineszenzdiode (LED) 510, welche durch einen IR-Signalgenerator 512 angetrieben wird. Der Signalgenerator 512 nimmt das serielle Signal 211 von der Eingabe/Ausgabe-Schnittstelle 210 an (2) und treibt die IR-LED 510 an, um dieses Signal zu einer oder mehreren Ultraschallbaken 122 zu übertragen. Die Adresse einer Ultraschallbake, zu welcher eine Entfernung erwünscht wird, wird im seriellen Signal 211 kodiert. Jede Ultraschallbake 122 enthält einen IR-Sensor 540, welcher, wenn es einen ausreichend kurzen, unversperrten Weg zwischen der Ultraschall-Entfernungsmesseinheit 110 und dieser Ultraschallbake gibt, das IR-Signal empfängt, welches dann durch einen IR-Signaldekodierer 542 dekodiert wird. Dieses dekodierte Signal enthält die Adressinformationen, welche durch die Ultraschall-Entfernungsmesseinheit übertragen werden. Der Steuerkreis 560 empfängt das dekodierte IR-Signal und bestimmt, ob diese Ultraschallbake wirklich adressiert ist, und signalisiert, wenn dies zutrifft, einem Impulsgenerator 552 einen Ultraschallwandler 550 mit einem Signal zu versorgen, welcher einen Ultraschallimpuls erzeugt. Der Impuls geht durch die Luft zur Ultraschall-Entfernungsmesseinheit 110, in welcher ein Mikrofon 520 den Ultraschallimpuls empfängt und ein entsprechendes elektrisches Signal zum Impulsdetektor 522 weiterleitet, welcher ein logisches Signal erzeugt, welches die Ankunft des Impulses anzeigt. Dieses Impulserfassungssignal wird an die Eingabe/Ausgabe-Schnittstelle 210 weitergeleitet (2). Wie nachstehend erörtert wird, ist die Flugzeit keine vollkommen genaue Entfernungsmessung. Fehlerquellen enthalten Fehler der zeitlichen Steuerung bzw. Timingfehler bei der Erfassung des Impulses, Geschwindigkeitsschwankungen der akustischen Ausbreitung, beispielsweise aufgrund der Lufttemperatur oder Luftströmung, und die ungleichmäßige Ausbreitung in unterschiedliche Richtungen der Ultraschallwelle von der Ultraschallbake.
  • Die Eingabe/Ausgabe-Schnittstelle 210 enthält einen Schaltkreis (z. B. eine programmierbare Logikanordnung), welcher logische Komponenten implementiert, welche in 6 gezeigt sind. Ein IMU-Datenpuffer 630 nimmt die seriell kodierten Beschleunigungs- und Winkelgeschwindigkeitsdaten 413 von der IMU 140 an und liefert die sechs Beschleunigungs- und Rotationsmessungen 631 als Ausgabe an die CPU 200. Die Eingabe/Ausgabe-Schnittstelle 210 enthält auch einen Bakenadresspuffer 610. Die CPU 200 (2) liefert eine Adresse der Ultraschallbake, zu welcher eine Entfernung gemessen werden sollte. Der Bakenadresspuffer 610 speichert die Adresse und versorgt jede URM 110 mit dieser Adresse in serieller Form. Zur gleichen Zeit, zu welcher die Adresse durch jede der URM 110 übertragen (und durch die Ultraschallbaken 122 empfangen) wird, werden drei Zähler 620a-c zurückgesetzt und beginnen mit dem Inkrementieren von Null mit einer feststehenden Takterzeugungsrate (z. B. 2 MHz). Wenn jede URM 110 den Ultraschallimpuls von der Bake erfasst, wird das entsprechende Impulserfassungssignal zum entsprechenden Zähler weitergeleitet, welcher das Zählen beendet. Die Zählungen sind dann für die CPU 200 als Messungen der Flugzeit des Ultraschallimpulses von der Ultraschallbake zu jeder URM 110 verfügbar.
  • In Bezug auf die 7a-b bestimmt die Verfolgungsvorrichtung 100 (1) den Ort derselben im Navigationsreferenzrahmen des Raumes, welcher als Achsen 710 gezeigt ist, die mit N (Norden), E (Osten), und D (nach unten) gekennzeichnet sind. Der Ort r (n) 730 ist ein Vektor mit den Komponenten (r (r) / N, r (n) / E, r (n) / D)T der Verschiebung von den Achsen 710 in Richtung von N, E bzw. D. Die Verfolgungsvorrichtung 100 bestimmt auch die Lage (Orientierung) derselben.
  • In Bezug auf 7b wird die Lage hinsichtlich des Rollwinkels, Nickwinkels und Gierwinkels (Euler-Winkel) dargestellt, θ(Ψ ,θ, ϕ)T, welche erfordert werden, um die Körperlage, welche durch die Koordinatenachsen 720 dargestellt ist, mit der durch die Koordinatenachsen 710 dargestellten Navigationslage auszurichten. Die drei Euler-Winkel sind als 3 × 3-Richtungskosinusmatrix dargestellt, Cnb (θ), welche einen Vektor der Koordinaten im Körperreferenzrahmen durch im Wesentlichen Anwenden in der Reihenfolge von Gier-, Nick- und dann Rollbewegungen um die z, y und dann x-Achse herum umwandelt. Die Richtungskosinusmatrix kann als
    Figure 00120001
    definiert sein.
  • Die hochgestellte und tiefgestellte Notation C n / b kennzeichnet, dass die Matrix einen Vektor im „b"-Referenzrahmen (Körper-Referenzrahmen) nimmt und einen Vektor im „n"-Referenzrahmen (Navigations-Referenzrahmen) liefert.
  • In Bezug auf 8 versorgen die Inertialsensoren 800, welche die Rotationssensoren 420a-c und Beschleunigungssensoren 410a-c enthalten, eine Inertialverfolgungseinrichtung 810 mit Inertialmesssignalen. Die Inertialverfolgungseinrichtung 810 implementiert eine diskrete Zeitnäherung des Signalflusses, welcher in 8 gezeigt wird. Die Inertialverfolgungseinrichtung 810 enthält mehrere Stufen. Zunächst modifiziert eine Gyroskopkompensation 820 das (Vektor-)Winkelgeschwindigkeitssignal ω, um die Vorspannung in der Messung zu berücksichtigen. Bei diesem Beispiel wird nur eine additive Vorspannung δω korrigiert. Andere Vorspannungen, wie beispielsweise ein Multiplikationsfehler (z. B. ein falscher Skalenfaktor), und andere Fehler aufgrund von Montageungenauigkeiten können auch korrigiert werden. Die Beschleunigungsmesserkompensation 830 korrigiert ähnlich eine additive Vorspannung δa (b) auf den Beschleunigungssignalen a ( b ). Wie nachstehend vollständig erörtert wird, werden einige Parameter, welche die Vorspannungsausdrücke δω und δa (b) enthalten, unter Verwendung von Ultraschallmessungen geschätzt.
  • Die Lageintegration 840 aktualisiert die Lageschätzung basierend auf dem Rotationssignal mit einer korrigierten Vorspannung. Bei diesem Beispiel wird die Lageintegration während einer Richtungskosinusdarstellung der Lage durchgeführt. Eine diskrete Zeitimplementierung der kontinuierlichen Differenzialgleichung
    Figure 00130001
    wird zum Aktualisieren der Richtungskosinusmatrix mit einer feststehenden Geschwindigkeit, üblicherweise zwischen 100 und 200 pro Sekunde, verwendet. Durch Veränderung der Notation in ein diskretes Zeitsystem (z. B. Ck = Cnb (kΔt)) wird die diskrete Zeitaktualisierung der Richtungskosinusmatrix als
    Figure 00140001
    implementiert, wobei
    Figure 00140002
    und
    Figure 00140003
    die schiefsymmetrische Matrix von δθ sind. Beachten Sie, dass S(δΘ) Folgendes erfüllt: S(δθ)2 = δθ I – δθ δθ T.
  • Um zu gewährleisten, dass Ck wirklich eine Richtungskosinusmatrix ist, werden die Reihen derselben nach jeder Iteration orthonormalisiert, um jegliche Zahlen- oder Näherungsfehler zu beseitigen, welche in diese Einträge gelangt sein können.
  • Basierend auf der verfolgten Richtungskosinusmatrix Ck, nimmt die Transformation 850 das Beschleunigungssignal mit einer korrigierten Vorspannung im Körper-Referenzrahmen an und gibt ein Beschleunigungssignal in den Navigations-Referenzrahmen gemäß
    Figure 00140004
    aus.
  • Die Doppelintegration 850 berechnet dann die Geschwindigkeit und Position gemäß
    Figure 00150001
    und
  • Figure 00150002
  • Die Euler-Winkelberechnung 870 nimmt die Richtungskosinusmatrix und gibt die entsprechenden Euler-Winkel aus. Die Ausgabe der Inertialverfolgungseinrichtung 810 ist (θ, r (n))T. Der Zustand der Inertialverfolgungseinrichtung enthält einen 15-dimensionalen Vektor, welcher aus fünf Sätzen an dreidimensionalen Werten x = (θ, ω, r (n), ν (n), a (n))T besteht.
  • Wie nachstehend vollständig erörtert wird, empfangt die Inertialverfolgungseinrichtung Fehleraktualisierungssignale δx, die von Ultraschall-Entfernungsmessungen abgeleitet werden, welche dieselbe verwendet, um die Lage-, Geschwindigkeits- und Positionswerte zu korrigieren und die Parameter der Gyroskop- und Beschleunigungsmesser-Vorspannungskorrekturelemente zu aktualisieren.
  • In Bezug auf 9 empfangt ein Bakensequenzer 910 Ortschätzungen r (n) von der Inertialverfolgungseinrichtung 810. Unter Verwendung einer Bakenkarte 915 der Orte (und Adressen) der Ultraschallbaken 122 (in 1 gezeigt), bestimmt der Bakensequenzer 910, welche Bake in jedem Zeitschritt anzusteuern ist, um Ultraschall-Entfernungsmessungen zu erzeugen. Beispielsweise bestimmt der Bakensequenzer 910 die Baken, welche sich am nächsten zum Ist-Ort befinden, und durchlauft zyklisch diese Baken bei jedem Zeitschritt. Da sich die Ortschätzung verändert, verändert sich im Allgemeinen auch die Gruppe an nächsten Baken. Nachdem der Bakensequenzer 910 jede der Bake der Reihe nach ansteuert, kommen die entsprechenden Ultraschallimpulse an und werden durch die Verfolgungsvorrichtung erfasst. Jeder Impuls erzeugt eine Entfernungsmessung für jedes Mikrofon, welches zum Erfassen des Impulses verwendet wird. In dieser Ausführungsform erzeugt jeder Impuls einen Satz an drei Entfernungsmessungen, eine von jedem Mikrofon in den drei URM 110.
  • Immer noch in Bezug auf 9, entspricht die Entfernungsmessung 920 dem Prozess zum Empfangen einer Ultraschall-Entfernungsschätzung. Die relevanten Parameter für eine Entfernungsmessung sind der Ort der adressierten Bake, b (n), der Ort der zum Erfassen des Impulses verwendeten Mikrofone, m (b) die Entfernungsschätzung selbst, dr, und die Zeit, zu welcher der Impuls erfasst wurde, tr, welche zum Korrigieren der Latenz in den Messungen verwendet wird. Beachten Sie, dass wenn die Ortschätzung fehlerfrei war und die Entfernungsschätzung völlig genau war, die Entfernungsschätzung dann dr = ||b (n) – (r (n)(tr) + Cnb (tr)m (b))||erfüllen würde.
  • Abweichungen von dieser Gleichwertigkeit werden zum Korrigieren der Parameter und Ausgaben der Inertialverfolgungseinrichtung 810 verwendet.
  • Ein komplementäres Kalman-Filter wird durch die Verfolgungsvorrichtung 100 verwendet, um die Schätzung des verfolgten Ortes und der verfolgten Orientierung durch inkrementales Aktualisieren der verfolgten Mengen zu verbessern während die Entfernungsmessungen eingehen. In Bezug auf 10 involviert der Ansatz zwei verwandte Komponenten. Da die Inertialverfolgungseinrichtung 810 die Ausgabe x derselben aktualisiert, hält eine Kalman-Vorhersageeinrichtung 1010 eine geschätzte Kovarianzmatrix P des Fehlers in x aufrecht.
  • Beispielsweise würde bei Abwesenheit einer Driftkompensation in der Inertialverfolgungseinrichtung 810 die Kovarianzmatrix P einem stets zunehmenden Fehler entsprechen.
  • Die zweite Komponente, welche in diesem Ansatz verwendet wird, ist eine Kalman-Aktualisierungseinrichtung 1020, welche Informationen von einer Entfernungsmessung 920 annimmt und unter Verwendung dieser Messinformationen eine Schätzung des akkumulierten Fehlers δx bestimmt, welche sie an die Inertialverfolgungseinheit 810 rückkoppelt, in welcher dieselbe zum Aktualisieren von x verwendet wird. Nach jeder Ultraschallmessung berechnet die Kalman-Aktualisierungseinrichtung 1020 auch eine neue geschätzte Kovarianzmatrix P(+) des Fehlers x nach der Aktualisierung, welche sie an die Kalman-Vorhersageeinrichtung 1010 rückkoppelt. Jede Ultraschallmessung korrigiert teilweise die Ausgabe der Inertialverfolgungseinrichtung 810. Eine kontinuierliche Reihe an Ultraschallaktulisierungen gewährleistet, dass der Fehler klein bleibt.
  • Die Inertialverfolgungseinrichtung 810 ist ein nichtlinearer Prozessor der Eingaben derselben und daher ist eine Formulierung eines Kalman-Filters für ein rein lineares Filter, welches durch Gaußsches Rauschen angetrieben wird, nicht geeignet. Unter Verwendung dessen, was im Allgemeinen als „erweitertes Kalman-Filter" (EKF) bekannt ist, wird ein linearisiertes, dynamisches Systemmodell verwendet, welches die Fehlerausbreitung in der Ausgabe x der Inertialverfolgungseinrichtung 810 kennzeichnet. Der Fehler, den das EKF modelliert ist
    Figure 00170001
    wobei die Komponenten den Komponenten der Vektorausgabe der Inertialverfolgungseinrich tung entsprechen. Beachten Sie, dass der Fehlerausdruck δa (b) im Körper-Koordinatensystem anstatt dem Navigations-Koordinatensystem modelliert wird und die anderen Elemente den Fehlern in der Ausgabe der Inertialverfolgungseinrichtung 810 direkt entsprechen. Die Parameter des linearisierten Fehlerausbreitungsmodells enthalten eine Zustandsübergangsmatrix und eine Kovarianzmatrix eines Antriebsrauschens, von welchem angenommen wird, dass es dieses Fehlermodell antreibt. Sowohl die Zustandsübergangsmatrix als auch die Kovarianz des Antriebsrauschens hängen von der Ausgabe der Inertialverfolgungseinrichtung ab. Bei Abwesenheit irgendwelcher Messungen bleibt der Mittelwert des Fehlerverfahrens null. Jedoch wächst die Kovarianz des Fehlers. Das linearisierte Modell der Fehlerausbreitung ist
    Figure 00180001
  • Die Einträge von Fk = F(x k-1) werden von einer Störungsanalyse der Aktualisierungsgleichungen abgeleitet, welche in der Inertialverfolgungseinrichtung 810 verwendet werden, und entsprechen den folgenden Fehlerausbreitungsgleichungen: Φ k = Φ k-1 – Cnb δω k-1, δω k = δω k-1, δr k = δr k-1 + Δtδν k-112 Δt2(Cnb δa (b)k-1 – S(Φ k-1)(a (n)k-1 + (0,0, – g)T) δν k = δν k-1 + Δtδa (b)k-1 – Δt S(Φ k-1)(a (n)k-1 + (0, 0, – g)T) und δa (b)k = δa (b)k-1 .
  • Es wird angenommen, dass die Kovarianz Qk des Prozessrauschens wk diagonal ist. Die Einträge dieser Kovarianzmatrix werden von bekannten Fehlerquellen in den Inertialmessungen, mit welchen die Inertialverfolgungseinrichtung 810 versorgt wird, abgeleitet, welche Fehler der additiven Vorspannung, Skalierungsfehler, Fehler der Ausrichtung der Sensoren mit den Körperachsen und Signalrauschen von den Sensoren selbst enthalten. Die einzelnen Varianzen hängen von der Ausgabe der Inertialverfolgungseinrichtung wie folgt ab:
    Figure 00180002
    wobei die einzelnen Varianzausdrücke wie folgt parametrisiert sind:
    Figure 00180003
    = GyroSkalierung ωxΔt + GyroAusricht (ωy + ωz )Δt + GyroRauschen √Δt
    Figure 00190001
    = GyroSkalierung ωyΔt + GyroAusricht (ωx + ω1)Δt + GyroRauschen √Δt
    Figure 00190002
    = GyroSkalierung ω2Δt + GyroAusricht (ωx + ωy )Δt + GyroRauschen √Δt
    σω = GyroVorspannungVeränderungRate Δt
    Figure 00190003

    Figure 00190004
    = BeschleuSkalierung axΔt + BeschleuAusricht (ay + az)Δt + BeschleuRauschen √Δt
    Figure 00190005
    = BeschleuSkalierung ayΔt + BeschleuAusricht (ax + az)Δt + BeschleuRauschen √Δt
    Figure 00190006
    = BeschleuSkalierung azΔt + BeschleuAusricht (ax + ay)Δt + BeschleuRauschen √Δt
    σ 2 / a = BeschleuVorspannungVeränderungRate Δt
    , wobei GyroSkalierung, BeschleuSkalierung, GyroAusricht und BeschleuAusricht dem Grad an Ungewissheit bei Kalibrationskoeffizienten entsprechen, welche zur Gerätefehlerkompensation verwendet werden. Im Allgemeinen kann eine nicht diagonale Kovarianz des Prozessrauschens verwendet werden.
  • In Bezug auf 11 weist die Kalman-Vorhersageeinrichtung 1010 zwei Stufen auf. Eine Fehlerlinearisierungsstufe 1110 berechnet erst Fk und Qk, wie oben umrissen wurde. Dann aktualisiert eine Kovarianzausbreitungsstufe 1120 iterativ die Fehlerkovarianz durch Anwenden einer Kovarianzausbreitungsgleichung Pk = Fk-1 Pk-1 FTk-1 + Qk des Kalman-Filters auf jeden Zeitschritt. Wenn eine Kalman-Vorhersageeinrichtung 1010 eine aktualisierte Kovarianz P(+) empfängt, welche als Ergebnis einer Ultraschallentfernungsmessung erzeugt wird, ersetzt diese aktualisierte Kovarianz die gegenwärtige Fehlerkovarianz P.
  • In Bezug auf 12 nimmt die Kalman-Aktualisierungseinrichtung 1020 die Ausgabe der Entfernungsmessung 920 sowie die Schätzung des Ortes und der Orientierung von der Inertialverfolgungseinrichtung 810 und die Kovarianz des Fehlers der Schätzung des Ortes und der Orientierung von der Kalman-Vorhersageeinrichtung 1010 an und berechnet eine Fehler schätzung und eine aktualisierte Kovarianz, welche sich aus dem Anwenden der Fehlerschätzung ergibt. Eine erste Stufe der Kalman-Aktualisierungseinrichtung 1020 ist die Messresiduumsberechnung 1210. Der Unterschied zwischen der erwarteten Entfernung und der gemessenen Entfernung wird als δdr = dr – ||b (n) – (r (n)(tr) + Cnb (tr)m (b))||berechnet.
  • Beachten Sie, dass im Allgemeinen eine Entfernungsmessung einige Zeit später verwendet wird, nachdem sie anfangs erfasst wurde. Um diese Latenz zu berücksichtigen, werden anstatt des Ortes und der Orientierung zur Zeit der Messung Schätzungen des Ortes und der Orientierung der Verfolgungsvorrichtung zu der Zeit, zu welcher der akustische Impuls ankam, verwendet. Die Schätzungen des Ist-Ortes, der Ist-Orientierung sowie der Ist-Linear- und Winkelgeschwindigkeit werden verwendet, um zur Messzeit zurück zu extrapolieren, um (r (n)(tr) und Cnb (tr) zu bestimmen.
  • Um die Kalman-Aktualisierungsgleichungen anzuwenden, wird dieses Residuum unter Verwendung einer linearisierten Beobachtungsgleichung als δdr = H(x, b, dr, m)δx + ηmodelliert.
  • Die Beobachtungsmatrix Hk = H(x k, b, dr, m) ist der lineare Effekt von Orts- und Orientierungsfehlern auf den Entfernungsmessungsfehler. Das additive Rauschen η weist eine Varianz R(x k, b, dr, m) auf. Hk hat die Form
    Figure 00210001
  • Die Varianz R(x k, b, dr, m) wird abgeleitet, um verschiedene Ereignisse zu modellieren, welche mit der Ultraschall-Entfernungsmessung assoziiert werden. Da beispielsweise die Entfernung zunimmt, ist die Impulserfassung zum Teil aufgrund der Impulsverbreiterung schwieriger, und es wird eine erhöhte Varianz verwendet, um den assoziierten Entfernungsmessfehler zu modellieren. Die Varianz R(x k, b, dr, m) weist die Form auf und wird als σ2l = RauschenBoden + RauschenSkalierung dγ und σ2l = (kΔt – tr)Hkxyz,0,0,0,νxyz,0,0,0,0,0,0))T parametrisiert.
  • Die ersten zwei Ausdrücke von Hk können alternativ auf null eingestellt werden, um die accelerometrische Neigungskorrektur zuzulassen (falls sie genauer ist). Wenn der dritte Ausdruck auf null eingestellt ist, wird die Gierdriftkorrektur über eine längere Zeitdauer aber mit höherer Genauigkeit auftreten.
  • Die Kalman-Aktualisierungseinrichtung 1020 enthält eine Stufe 1230 zum Annehmen/Ablehnen der Messung. Die Annahme-/Ablehnungsstufe 1230 nimmt das Messresiduum, δx, und die berechnete Varianz, R, des Messresiduums. Wenn das Messresiduum größer als ein vorbestimmtes Vielfaches der berechneten Standardabweichung des Messresiduums ist, dann wird die Messung als verdächtig abgelehnt, beispielsweise aufgrund des vorzeitigen oder späten Ansteuerns eines Ultraschall-Impulsdetektors. Andernfalls wird das Messresiduum weiter verarbeitet, um die Zustandsfehlerschätzung, δx, zu berechnen. Unter Verwendung der Aktualisierungsgleichungen des Kalman-Filters berechnet die Kalman-Verstärkungsberechnung 1240 die Kalman-Verstärkung als K = Pk HTk (HkPkHTk + R)–1.
  • Die Fehlerschätzeinrichtung 1250 berechnet dann die Fehlerschätzung als δx = K δd und die Kovarianzaktualisierungseinrichtung 1260 berechnet die aktualisierte Fehlerkovarianz als p(+) = (I – K H)Pk.
  • Die Komponenten δx von werden dann zum Aktualisieren der Inertialverfolgungseinrichtung 810 verwendet. Die berechneten Ausdrücke δω und δa (b)werden zur Gyroskop-Vorspannungskorrektur 820 bzw. Beschleunigungsmesser-Vorspannungskorrektur 830 weitergeleitet (8), wo sie zu den gegenwärtigen, gespeicherten Vorspannungsparametern addiert werden. Die berechneten Ausdrücke δν (n) und δr ( n ) werden dann zur Doppelintegration 860 weitergeleitet (8), wo sie zu den gegenwärtigen Schätzungen von ν (n ) bzw. r (n) addiert werden. Schließlich wird die Richtungskosinusmatrix gemäß ck – (I – S(Φ))ck aktualisiert und dann erneut orthonormalisiert.
  • Zurück in Bezug auf 1 enthält die Ultraschallbakenanordnung 120 einzelne Ultraschallbaken 122, welche in einem regelmäßigen Muster angeordnet sind. Beispielsweise können die Baken auf einem quadratischen Gitter mit einem Abstand von ca. 2 Fuß (ca. 61 cm), vorzugsweise mit einer Genauigkeit von 3 mm oder weniger angeordnet sein. Eine begrenzte Anzahl an Adressen ist für die Baken verfügbar, wobei in dieser Ausführungsform aufgrund von Hardwarebeschränkungen nur acht unterschiedliche Adressen verfügbar sind. Wenn die Verfolgungsvorrichtung einen IR-Befehl an eine Adresse sendet, werden daher im Allgemeinen mehrere Ultraschallbaken das Signal erhalten und ansprechen. Zur Entfernungsmessung wird nur die nächste Bake mit einer bestimmten Adresse verwendet. Da jedoch mehrere Baken auf jeden IR-Befehl ansprechen können, kann die Impulserfassungsschaltung vorzeitig angesteuert werden, beispielsweise durch einen Impuls von einer in einer vorangehenden Iteration angesteuerten Bake, aber diese ist ausreichend weit entfernt, dass der Impuls derselben bis nach einer anschließenden Iteration nicht ankommt. Um dieses Problem des vorzeitigen Ansteuerns zu lösen, wird der Impulsdetektor 522 (5) nur während eines Zeitfensters um die erwartete Ankunftszeit des erwünschten Impulses herum aktiviert. Dies verhindert ein falsches Ansteuern durch Impulse von anderen Baken oder Signale, welche sich aus einem konstanten Langzeit-Nachhall vorangehender Impulse ergeben.
  • In der Beschreibung der Abläufe der Verfolgung und Kalman-Aktualisierung wird angenommen, dass eine anfängliche Ort- und Orientierungsschätzung bekannt ist. Das trifft nicht unbedingt zu und ein automatischer Ermittlungs- bzw. Erfassungsalgorithmus wird durch die Verfolgungsvorrichtung 100 verwendet. Die beschränkte Anzahl an Adressen der Ultraschallbaken wird als Basis für einen anfänglichen Erfassungsalgorithmus verwendet. Anfangs steuert die Verfolgungsvorrichtung Baken mit jeder der zulässigen Adressen an und misst die Entfernung zur nächsten Bake jeder Adresse. Dann werden die Adressen der vier nächsten Baken anhand der Entfernungsmessungen bestimmt. Die Verfolgungseinheit enthält eine Bakenkarte, welche die Orte und Adressen aller Baken enthält. Die Baken sind derart angeordnet, dass die Adressen der vier nächsten Baken die möglichen Orte auf einen kleinen Anteil des Raums beschränken. Wenn eine Unklarheit basierend auf den nächsten Baken besteht, werden die Ist-Abstände zu den Baken in einem Triangulationsverfahren verwendet, um die Unklarheit zu lösen. Die anfängliche Orientierung basiert auf den relativen Entfernungsmessungen zu jedem der Mikrofone.
  • Der gesamte Verfolgungsablauf kann durch den in 13 gezeigten Ablaufplan zusammengefasst werden. Zunächst werden der anfängliche Ort und die anfängliche Orientierung unter Verwendung des oben umrissenen Ansatzes ermittelt (Schritt 1310). Das Verfahren gelangt dann in eine Schleife, welche jeden Zeitschritt einmal ausgeführt wird. Nach dem Warten auf den nächsten Zeitschritt (Schritt 1320) werden Inertialmessungen empfangen (Schritt 1330) und die verfolgten Variablen, x, und Fehlerkovarianz, P, unter Verwendung der Inertialmessungen aktualisiert (Schritt 1340). Wenn eine Ultraschall-Entfernungsmessung, welche noch nicht verarbeitet wurde, verfügbar ist (Schritt 1350), wird diese Entfernungsmessung zum Berechnen einer Fehleraktualisierung, δx, und aktualisierten Fehlerkovarianz, P(+), verwendet (Schritt 1360). Die Fehleraktualisierung und neue Fehlerkovarianz werden dann zum Aktualisieren der Inertialverfolgungseinrichtung und der Kalman-Vorhersageeinrichtung verwendet (Schritt 1370). Das Verfahren involviert dann das Bestimmen, ob weitere Entfernungsmessungen in diesem Zeitschritt befohlen werden müssen (Schritt 1380). Da drei Entfernungsmessungen für jeden Impuls erfolgen, aber nur eine Entfernungsmessung pro Zeitschritt verwendet wird, kann es einen Rückstand der Entfernungsmessungen geben, welcher in den bevorstehenden Zeitschritten angewendet werden wird. Daher kann es sein, dass eine neue Entfernungsmessung für mehrere spätere Zeitschritte nicht erforderlich ist. Unter Berücksichtigung der erwarteten Flugzeit des nächsten Ultraschallimpulses (welche im Allgemeinen mehr als ein einziger Zeitschritt ist), bestimmt das Verfahren, ob ein IR-Befehl zu einer Bake in diesem Zeitschritt gesendet werden sollte (Schritt 1380), die nächste Bakenadresse ausgewählt wird (Schritt 1390) und, wenn dem so ist, der IR-Befehl zu dieser Bake gesendet wird (Schritt 1395). Das Verfahren durchlauft dann wieder die Schleife beginnend mit Schritt 1320 und wartet auf den Anfang des nächsten Zeitintervalls.
  • Mehrere alternative Ansätze können auch verwendet werden. In der beschriebenen Ausführungsform wird nur eine Entfernungsmessung pro Zeitschritt verwendet. Alternativ können alle verfügbaren Entfernungsmessungen bei jedem Zeitschritt verwendet werden, wenn der Prozessor 130 eine ausreichende Rechenkapazität aufweist. Dieser alternative Ansatz wird durch Schleifendurchlauf vom Schritt 1370 zurück zum Schritt 1350 bis alle Entfernungsmes sungen berücksichtigt wurden, implementiert. Alternativ können anstatt des Anwendens der Kalman-Aktualisierungen für jede der skalaren Entfernungsmessungen der Reihe nach alle in einem einzigen Schritt unter Verwendung von ähnlichen Aktualisierungsgleichungen für Vektorbeobachtungen und korreliertem Beobachtungsrauschen angewendet werden. Auch können anstatt des Verzögerns der Verarbeitung einer Entfernungsmessung bis zum nächsten Zeitschritt die Entfernungsmessungen einbezogen werden wie sie ankommen und nicht mit den Aktualisierungen der Inertialverfolgungseinrichtung synchronisiert werden.
  • Der oben beschriebene Ablauf kann mit anderen Messmoden kombiniert werden. Beispielsweise können Neigungsmesser verwendet werden, um das erweiterte Kalman-Filter mit Messungen zu versorgen, welches die Korrektur der Lagedrift zulässt. Anstatt des Verwendens von drei oder mehreren Mikrofonen, welche die Korrektur aller drei Rotationsgrad zulassen, können auch zwei Mikrofone für die Entfernungsmessung in Kombination mit einem Messmodus, wie beispielsweise Neigungsmesser, verwendet werden. Auf diese Weise kann eine Driftkorrektur auf Neigungsmessern basieren, aber es wird kein Kompass, welcher auf magnetische Feldschwankungen empfindlich reagieren kann, zur Driftkorrektur erfordert. Es können auch viel mehr als drei Mikrofone verwendet werden, um eine größere Redundanz zu liefern und eine höhere Rotationsfreiheit zuzulassen.
  • Als Alternative zum Montieren der Baken an feststehenden Orten in der Umgebung und der Mikrofone auf die Verfolgungsvorrichtung, worauf oft als „Inside-out"-Anordnung Bezug genommen wird, könnte diese in eine „Outside-in"-Anordnung umgekehrt werden. Dann liefert die Verfolgungsvorrichtung die Ultraschallimpulse und eine koordinierte Anordnung an Mikrofonen tastet den Ort der Verfolgungsvorrichtung ab. Beachten Sie, dass mit der Zeit ein Impuls ein Mikrofon erreicht hat und sich die Verfolgungsvorrichtung im Allgemeinen zu einem neuen Ort bewegt haben wird. Diese Latenz der Messungen muss auf eine Weise kompensiert werden, welche der Kompensation der Latenz bei Verwendung der oben beschriebenen Entfernungsmessungen ähnelt.
  • Die Baken 122 müssen nicht in einer ebenen Anordnung montiert werden. Sie könnten an Wänden und an der Decke oder auf anderen Trägern in der Umgebung montiert werden. Die Baken könnten beispielsweise auf Lichtbefestigungen montiert werden. Die Anzahl an Baken kann ausgewählt werden, um den Benutzeranforderungen zu entsprechen, und die Orte der Baken können basierend auf einer Vielzahl an Kriterien ausgewählt werden, wie beispielsweise die Verfügbarkeit von geeigneten Befestigungsstellen und geometrische Berücksichtigungen, und die Bakenkarte kann eingestellt werden, um der Anzahl an und den Orten der Baken zu entsprechen. Die Anzahl an Baken in der Konstellation kann durch den Benutzer erhöht oder verringert werden solange die Bakenabbildung aktualisiert bleibt.
  • Die Befehlsignale von der Verfolgungsvorrichtung zu den Baken können unter Verwendung anderer Moden als der IR-Übertragung gesendet werden. Beispielsweise können RF-Signale, optische Signale oder akustische Signale verwendet werden. Die Verfolgungsvorrichtung kann auch mit den Baken verdrahtet sein.
  • Bei einer „Inside-outside-in"-Anordnung können zwei oder mehr Objekte verfolgt werden. In Bezug auf 14a verfolgt die Verfolgungsvorrichtung 100 den Ort derselben wie zuvor. Eine zweite Verfolgungsvorrichtung 1400 enthält drei adressierbare Ultraschallbaken 1410, welche in einem bekannten Verhältnis zueinander angeordnet sind. Durch das Ansteuern der Baken 1410, um akustische Impulse zu übertragen, welche an einer URM 110 auf der Verfolgungsvorrichtung 100 empfangen werden, kann die Verfolgungsvorrichtung den relativen Ort und die relative Orientierung der zweiten Verfolgungsvorrichtung bestimmen. Eine weitere Erweiterung, welche eine erhöhte Genauigkeit bei den Schätzungen des relativen Ortes und der relativen Orientierung liefert, involviert das Aufweisen einer zweiten Inertialmesseinheit, welche an der Verfolgungsvorrichtung 1400 befestigt ist, und das Übertragen der Inertialmessungen derselben zur Verfolgungsvorrichtung 100. Wenn nur eine einzige Bake auf dem zweiten Objekt platziert wird, kann der relative Ort unter Verwendung der Ultraschall-Entfernungsmessungen abgetastet werden, ohne notwendigerweise die relative Orientierung der zweiten Vorrichtung zu verfolgen.
  • In Bezug auf 14b kann ein „wechselseitiges Verfolgungsnetzwerk" verwendet werden, welches aus mehreren Verfolgungsvorrichtungen besteht. Diese Verfolgungsvorrichtungen verfolgen die individuellen Orte derselben in Bezug auf die Orte der anderen Vorrichtungen in der Umgebung, welche feststehende Baken und andere bewegliche, verfolgte Objekte ent halten. Dies kann mit einem zusätzlichen Kommunikationssystem erfolgen, welches die Verfolgungsvorrichtungen koppelt, wie beispielsweise ein lokales RF-Netzwerk.
  • In den oben beschriebenen Ausführungsformen wird angenommen, dass die „Karte" der Bakenanordnung akkurat ist. Da die Entfernungsmessungen redundante Informationen enthalten, können Fehler bei der Platzierung der Baken iterativ geschätzt und aktualisiert werden, wodurch die Genauigkeit verbessert wird. Insbesondere können die Platzierungsfehler der Baken in dem Zustand des erweiterten Kalman-Filters enthalten sein und Entfernungsmessungen von jeder Bake würden dann mit der Zeit zum Schätzen der Platzierungsfehler beitragen. Ein separater, anfänglicher, automatischer „Abbildungs"-Modus kann auch verwendet werden, bei welchem durch die Entfernungsmessung von einem oder mehreren Orten im Raum und Triangulationsberechnungen die Orte der Baken bestimmt werden können. Diese automatisch bestimmten Orte können als die bekannten Orte oder als anfängliche Schätzungen verwendet werden, die dann unter Verwendung des Kalman-Filters weiter aktualisiert werden. Bei dieser Art an Ansatz können die Baken innerhalb des Raumes unregelmäßig platziert werden ohne zu erfordern, dass sie präzise positioniert werden.
  • Der oben beschriebene Verfolgungsansatz weist mehrere Anwendungen auf. Eine erste Anwendung involviert das Koppeln der Verfolgungsvorrichtung an eine auf dem Kopf montierte Anzeige. In Bezug auf 15 lässt eine auf dem Kopf montierte Anzeige 1510 zu, dass ein Benutzer ein physisches Objekt 1520, wie beispielsweise ein Werkstück, direkt ansieht. Die Anzeige 1510, welche den bekannten Ort des Werkstücks 1520 im Referenzrahmen des Raums verwendet, überlagert Informationen über die Sicht des Benutzers des Werkstücks. Durch Anlegen von Kabelsträngen an eine große Vorrichtung können beispielsweise überlagerte Informationen Informationen enthalten, welche die richtige Platzierung der Kabelstränge betreffen. Eine ähnliche auf dem Kopf montierte Anzeige kann auch verwendet werden, um das vollständige Bild zu liefern, welches durch einen Benutzer in einem Virtual-Reality-System betrachtet wird, anstatt ein Bild auf der realen Sicht zu überlagern, welche durch den Benutzer gesehen wird.
  • Eine andere Anwendung involviert das Verfolgen eines Kameraortes bei einer Fernsehanwendung. In Bezug auf 16 ist eine bekannte Technik bei der Filmproduktion eine Test person 1620 vor einem leeren (üblicherweise monochromen) Hintergrund zu filmen und dann ein anderes Bild (als 1630 veranschaulicht) als Hintergrund elektronisch zu überlagern. Eine Schwierigkeit bei solch einer Technik ist, dass sich das Hintergrundbild verändern sollte während sich die Kamera 1610 bewegt, um die Kamerabewegung wiederzugeben. Durch Anbringen der Verfolgungsvorrichtung 100 an der Kamera 1610 wird der Ort und die Orientierung der Kamera verfolgt und das Hintergrundbild kann durch einen Bildprozessor automatisch modifiziert werden, welcher die sich verändernde Position und Orientierung der Kamera empfängt. Dieser Ansatz lässt die Konstruktion von großen „virtuellen Sätzen" zu, welche im Bildprozessor gespeichert werden, und dadurch können mehrere und sich verändernde „Winkel" der Kamera verwendet werden.
  • Eine andere Anwendung involviert das Abtasten der Bewegung von Elementen in einem Kraftfahrzeug, z. B. bei einem Kraftfahrzeug-Aufpralltest. In Bezug auf 17 kann die Bewegung eines Dummys 1720 innerhalb eines aufprallenden Fahrzeugs 1710 unter Verwendung der Verfolgungsvorrichtung 100 verfolgt werden. Zudem kann ein zweites Objekt, wie beispielsweise eine Stelle auf der Brandschutzwand unter Verwendung einer zusätzlichen Bake 1730 verfolgt werden, welche den oben beschriebenen „Inside-outside-in"-Ansatz verwendet. Dies lässt sowohl das Verfolgen des Dummys im Referenzrahmen des Kraftfahrzeugs als auch das Verfolgen einer Stelle innerhalb des Fahrzeugs relativ zum Dummy zu.
  • Andere Anwendungen enthalten Roboternavigation, Verfolgung des Inventars, Vermögens oder Personals, virtuelle oder erweiterte Realität des Schiffsbords zur Schadenskontrolle, Filmkameraverfolgung, Unterhaltung (z. B. Themenparks und Spiele), Vollkörperverfolgung zur Bewegungserfassung und Waffenverfolgung.
  • Alternative Ausführungsformen können auch andere Ansätze zur Inertialverfolgung verwenden. Beispielsweise kann anstatt des Durchführens der Lageintegration unter Verwendung einer Richtungskosinusmatrix, die Lageintegration unter Verwendung von Euler-Winkeln oder Quaternionen äquivalent verwendet werden. Beachten Sie, dass die linearisierte Fehlerausbreitungssystemsmatrix und Antriebsrauschkovarianz etwas von dem bestimmten Verfolgungsalgorithmus abhängen können, welcher verwendet wird. Auch kann der Zustand des Kalman-Filters verändert werden, beispielsweise um andere Ausdrücke zu enthalten. Ein Bei spiel dessen ist nicht nur das Verfolgen der additiven Vorspannung des Beschleunigungsmessers, wie in den oben beschriebenen Ausführungsformen, sondern auch das Verfolgen der multiplikativen Vorspannung (z. B. Fehler im Skalenfaktor) des Beschleunigungsmessersignals, Fehlausrichtung und Schallgeschwindigkeit.
  • Andere Verfahren der Entfernungsmessung können auch verwendet werden, welche die akustische Phase, RF-Flugzeit oder optische Flugzeit, RF- oder optische Phase und mechanische Kabelerweiterung enthalten.
  • Andere Verfahren zum Vereinigen der inertialen und akustischen Messungen können anstatt des Kalman-Filterns verwendet werden. Beispielsweise kann ein neurales Netzwerk, eine regelbasierte Argumentation oder Fuzzy-Logik-Systeme, oder Optimierungsverfahren verwendet werden, um die Messungen zu kombinieren.
  • In der obigen Beschreibung werden nur acht unterschiedliche Ultraschallbakenadressen verwendet. Alternativ kann eine große Anzahl an mehrfach genutzten Adressen verwendet werden.

Claims (3)

  1. Verfahren zum Verfolgen einer Bewegung eines Körpers, der eine Bewegungsverfolgungsvorrichtung (100) mit einem Feld von drei Ultraschall-Entfernungsmesseinrichtungen (110) aufweist, mit den Schritten: Bereitstellen einer Mehrzahl von akustischen Referenzvorrichtungen (122), die eine begrenzte Anzahl von unterschiedlichen geteilten Adressen aufweisen; Bereitstellen einer vorbestimmten Karte der Orte der Mehrzahl von akustischen Referenzvorrichtungen (122); Ermitteln einer anfänglichen Orts- und Richtungs-Schätzung des Körpers; Auffrischen einer Orts- und Richtungs-Schätzung des Körpers aus Daten von einem Intertialverfolger (140); Auffrischen der Orts- und Richtungs-Schätzung mit den folgenden Schritten: Auswählen einer akustischen Referenzvorrichtung (122) aus einer Gruppe von akustischen Referenzvorrichtungen (122), wobei die Gruppe aus der Mehrzahl von akustischen Referenzvorrichtungen ausgewählt wird, die am nächsten zu der Ortsschätzung des Körpers sind; Übertragen eines Steuersignals (112), das eine Adressinformation aufweist, zu der ausgewählten akustischen Referenzvorrichtung (122), wodurch mehrere akustische Referenzvorrichtungen das Steuersignal (112) empfangen werden, es basierend auf der Adresse als ihnen zugewiesen erkennen und antworten werden; Empfangen von Entfernungsmess-Signalen von jeder der antwortenden akustischen Referenzvorrichtungen (122) an jeder der drei Ultraschall-Entfernungsmesseinrichtungen (110); Zulassen eines jeweiligen der Entfernungsmess-Signale (114) bezogen auf eine Entfernung zwischen einer jeden jeweiligen Entfernungsmesseinrichtung (110) und der einen ausgewählten der Mehrzahl von akustischen Referenzvorrichtungen (122) nur während eines Zeitfensters, in welchem das Entfernungsmess-Signal von der ausgewählten akustischen Referenzvorrichtung erwartet wird; Auffrischen der Orts- und Richtungsschätzung basierend auf nur den zugelassenen der Entfernungsmess-Signale, wodurch eine weitere Orts- und Richtungsschätzung erhalten wird; und wobei die Schritte des Auffrischens wiederholt werden.
  2. Verfahren nach Anspruch 1, das die weiteren Schritte aufweist: Bestimmen einer Entfernungsmessung basierend auf einer Flugzeit des Entfernungsmess-Signals (114).
  3. Verfahren nach Anspruch 1, wobei das Übertragen des Steuersignals (112) das Übertragen eines drahtlosen Steuersignals beinhaltet.
DE69938178T 1998-04-17 1999-04-08 Bewegungsverfolgungssystem Expired - Lifetime DE69938178T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US62442 1998-04-17
US09/062,442 US6176837B1 (en) 1998-04-17 1998-04-17 Motion tracking system
PCT/US1999/007831 WO1999053838A1 (en) 1998-04-17 1999-04-08 Motion tracking system

Publications (2)

Publication Number Publication Date
DE69938178D1 DE69938178D1 (de) 2008-04-03
DE69938178T2 true DE69938178T2 (de) 2009-02-12

Family

ID=22042517

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69938178T Expired - Lifetime DE69938178T2 (de) 1998-04-17 1999-04-08 Bewegungsverfolgungssystem

Country Status (9)

Country Link
US (4) US6176837B1 (de)
EP (1) EP1071369B1 (de)
JP (1) JP4690546B2 (de)
CN (1) CN100522056C (de)
AT (1) ATE386463T1 (de)
DE (1) DE69938178T2 (de)
HK (1) HK1039884B (de)
TW (1) TW497967B (de)
WO (1) WO1999053838A1 (de)

Families Citing this family (457)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6421622B1 (en) 1998-06-05 2002-07-16 Crossbow Technology, Inc. Dynamic attitude measurement sensor and method
US6647352B1 (en) * 1998-06-05 2003-11-11 Crossbow Technology Dynamic attitude measurement method and apparatus
US7216055B1 (en) 1998-06-05 2007-05-08 Crossbow Technology, Inc. Dynamic attitude measurement method and apparatus
US6381340B1 (en) * 1998-06-26 2002-04-30 Digilens, Inc. Method for calculating relative phases between signal channels in a multi-sensor tracking device
IL127569A0 (en) 1998-09-16 1999-10-28 Comsense Technologies Ltd Interactive toys
WO2000021020A2 (en) 1998-10-02 2000-04-13 Comsense Technologies, Ltd. Card for interaction with a computer
US6607136B1 (en) 1998-09-16 2003-08-19 Beepcard Inc. Physical presence digital authentication system
US7260221B1 (en) 1998-11-16 2007-08-21 Beepcard Ltd. Personal communicator authentication
US7749089B1 (en) * 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7280970B2 (en) * 1999-10-04 2007-10-09 Beepcard Ltd. Sonic/ultrasonic authentication device
US8019609B2 (en) 1999-10-04 2011-09-13 Dialware Inc. Sonic/ultrasonic authentication method
DE19954666B4 (de) 1999-11-13 2004-05-06 Pilot Blankenfelde Medizinisch-Elektronische Geräte GmbH Verfahren zur objektiven frequenzspezifischen Hörschwellenbestimmung mittels der Amplitude Modulation Following Response (AMFR)
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US6734834B1 (en) * 2000-02-11 2004-05-11 Yoram Baram Closed-loop augmented reality apparatus
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
JP4477280B2 (ja) 2000-03-16 2010-06-09 メディガス リミテッド 胃底皺壁形成装置
IL141665A (en) * 2001-02-26 2007-02-11 Minelu Zonnenschein Determination of position using ultrasound
US7000469B2 (en) * 2000-04-21 2006-02-21 Intersense, Inc. Motion-tracking
US6474159B1 (en) * 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking
SE516565C2 (sv) 2000-09-20 2002-01-29 Jan G Faeger Metod och anordning för att producera information om en omgivning och användning av anordningen
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
KR20020054245A (ko) * 2000-12-27 2002-07-06 오길록 광학식과 자기식 모션 캡쳐 시스템을 위한 센서 퓨전 장치및 그 방법
US6594007B2 (en) 2001-02-01 2003-07-15 Snap-On Technologies, Inc. Method and apparatus for mapping system calibration
US9219708B2 (en) * 2001-03-22 2015-12-22 DialwareInc. Method and system for remotely authenticating identification devices
US6831632B2 (en) 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
US6486831B1 (en) * 2001-04-23 2002-11-26 Itt Manufacturing Enterprises, Inc. Methods and apparatus for estimating accuracy of measurement signals
SE523098C2 (sv) * 2001-06-19 2004-03-30 Jan G Faeger Anordning och förfarande för att i en reell omgivning skapa en virtuell företeelse
US20040021569A1 (en) * 2001-11-21 2004-02-05 Robert Lepkofker Personnel and resource tracking method and system for enclosed spaces
US6997882B1 (en) * 2001-12-21 2006-02-14 Barron Associates, Inc. 6-DOF subject-monitoring device and method
US7030905B2 (en) * 2002-01-31 2006-04-18 Lucent Technologies Inc. Real-time method and apparatus for tracking a moving object experiencing a change in direction
CA2477553A1 (en) 2002-03-12 2003-09-25 Menache, Llc Motion tracking system and method
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US20030218537A1 (en) * 2002-05-21 2003-11-27 Lightspace Corporation Interactive modular system
AU2002368068A1 (en) * 2002-07-17 2004-02-02 Yoram Baram Closed-loop augmented reality apparatus
US8797260B2 (en) * 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US10086282B2 (en) 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
US6922632B2 (en) * 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US6876926B2 (en) * 2002-09-26 2005-04-05 Honeywell International Inc. Method and system for processing pulse signals within an inertial navigation system
US20040066391A1 (en) * 2002-10-02 2004-04-08 Mike Daily Method and apparatus for static image enhancement
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
GB2394049B (en) * 2002-10-12 2006-07-26 Westerngeco Seismic Holdings Method and apparatus for determination of an acoustic receivers position
CA2516151A1 (en) * 2003-02-14 2004-09-02 Lightspace Corporation Interactive system
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US20050033200A1 (en) * 2003-08-05 2005-02-10 Soehren Wayne A. Human motion identification and measurement system and method
US7355561B1 (en) 2003-09-15 2008-04-08 United States Of America As Represented By The Secretary Of The Army Systems and methods for providing images
US7587053B1 (en) * 2003-10-28 2009-09-08 Nvidia Corporation Audio-based position tracking
US7492913B2 (en) * 2003-12-16 2009-02-17 Intel Corporation Location aware directed audio
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
WO2005076660A1 (ja) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha 超指向性スピーカ搭載型移動体
FR2868281B1 (fr) * 2004-03-30 2023-06-23 Commissariat Energie Atomique Procede de determination des mouvements d'une personne.
DE102004016185A1 (de) * 2004-04-01 2005-10-20 Volkswagen Ag Verfahren zum Herstellen eines Bauteils für ein Kraftfahrzeug
US7496397B2 (en) * 2004-05-06 2009-02-24 Boston Scientific Scimed, Inc. Intravascular antenna
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
US7236235B2 (en) * 2004-07-06 2007-06-26 Dimsdale Engineering, Llc System and method for determining range in 3D imaging systems
CN101031237B (zh) * 2004-07-27 2012-11-14 外科视象公司 具有协同式mri天线探头的mri兼容通用传递插管的mri系统及相关系统和方法
EP1784787A4 (de) * 2004-08-23 2007-10-17 Gamecaster Inc Vorrichtungen, verfahren und systeme zum betrachten und manipulieren einer virtuellen umgebung
US7487043B2 (en) * 2004-08-30 2009-02-03 Adams Phillip M Relative positioning system
US20060245627A1 (en) * 2005-02-08 2006-11-02 Kouki Nagamune Noninvasive dynamic analysis system and method of use thereof
IL167648A (en) * 2005-03-24 2011-01-31 Elbit Systems Ltd Hybrid tracker
WO2006119764A1 (en) * 2005-05-13 2006-11-16 Brüel & Kjær Sound & Vibration Measurement A/S Determination of the position of an object
US7672781B2 (en) * 2005-06-04 2010-03-02 Microstrain, Inc. Miniaturized wireless inertial sensing system
JP5028751B2 (ja) * 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
WO2007009088A2 (en) * 2005-07-12 2007-01-18 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California Method and apparatus for detecting object orientation and position
EP1748636B1 (de) * 2005-07-28 2008-11-19 Harman Becker Automotive Systems GmbH Verbesserte Kommunikation für Innenräume von Kraftfahrzeugen
US7730892B2 (en) * 2005-07-29 2010-06-08 Massachusetts Eye & Ear Infirmary Mechanical vestibular stimulator
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US8313379B2 (en) * 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US8870655B2 (en) * 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
JP4262726B2 (ja) * 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US20070049346A1 (en) * 2005-08-29 2007-03-01 Pjb Technologies, Llc Antenna distribution system
US8308563B2 (en) * 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US7454246B2 (en) * 2005-09-08 2008-11-18 Massachusetts Eye & Ear Infirmary Sensor signal alignment
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US7421343B2 (en) * 2005-10-27 2008-09-02 Honeywell International Inc. Systems and methods for reducing vibration-induced errors in inertial sensors
NL1030440C2 (nl) * 2005-11-16 2007-05-21 Univ Twente Bewegingsvolgsysteem.
US8494805B2 (en) 2005-11-28 2013-07-23 Orthosensor Method and system for assessing orthopedic alignment using tracking sensors
US8000926B2 (en) * 2005-11-28 2011-08-16 Orthosensor Method and system for positional measurement using ultrasonic sensing
US8098544B2 (en) 2005-11-29 2012-01-17 Orthosensor, Inc. Method and system for enhancing accuracy in ultrasonic alignment
US8814810B2 (en) * 2005-12-01 2014-08-26 Orthosensor Inc. Orthopedic method and system for mapping an anatomical pivot point
US8864686B2 (en) * 2005-12-01 2014-10-21 Orthosensor Inc. Virtual mapping of an anatomical pivot point and alignment therewith
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
US8020029B2 (en) * 2006-02-17 2011-09-13 Alcatel Lucent Method and apparatus for rendering game assets in distributed systems
JP4530419B2 (ja) * 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
US7839417B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
US7839416B2 (en) * 2006-03-10 2010-11-23 University Of Northern Iowa Research Foundation Virtual coatings application system
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
US8926531B2 (en) * 2006-05-29 2015-01-06 Sharp Kabushiki Kaisha Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US7616982B1 (en) * 2006-06-22 2009-11-10 United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Determination and application of location and angular orientation of a pill transmitter within a body
FR2902871B1 (fr) * 2006-06-23 2008-08-29 Thales Sa Unite de mesure inertielle a tenue renforcee aux accelerations
JP5513706B2 (ja) * 2006-08-24 2014-06-04 パナソニック株式会社 位置検出システム
JP5390744B2 (ja) * 2006-08-24 2014-01-15 パナソニック株式会社 位置検出システム
US8421642B1 (en) 2006-08-24 2013-04-16 Navisense System and method for sensorized user interface
US8638296B1 (en) 2006-09-05 2014-01-28 Jason McIntosh Method and machine for navigation system calibration
EP1901089B1 (de) * 2006-09-15 2017-07-12 VLSI Solution Oy Objektverfolgungsgerät
US8128410B2 (en) * 2006-09-29 2012-03-06 Nike, Inc. Multi-mode acceleration-based athleticism measurement system
WO2008042402A2 (en) * 2006-10-02 2008-04-10 Heffelfinger David M Vehicle testing lamp apparatus, system, and method
US20080124698A1 (en) * 2006-11-28 2008-05-29 Ebensberger Jason M Virtual coatings application system with structured training and remote instructor capabilities
ITRM20060638A1 (it) * 2006-11-30 2008-06-01 Cardinale Ciccotti Giuseppe Metodo per la localizzazione di dispositivi remoti utilizzante onde acustiche ed elettromagnetiche
US7934423B2 (en) * 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
US8020441B2 (en) * 2008-02-05 2011-09-20 Invensense, Inc. Dual mode sensing for vibratory gyroscope
US8508039B1 (en) 2008-05-08 2013-08-13 Invensense, Inc. Wafer scale chip scale packaging of vertically integrated MEMS sensors with electronics
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20100071467A1 (en) * 2008-09-24 2010-03-25 Invensense Integrated multiaxis motion sensor
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8141424B2 (en) * 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8047075B2 (en) * 2007-06-21 2011-11-01 Invensense, Inc. Vertically integrated 3-axis MEMS accelerometer with electronics
US8072581B1 (en) 2007-01-19 2011-12-06 Rockwell Collins, Inc. Laser range finding system using variable field of illumination flash lidar
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US20080195304A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. Sensor fusion for navigation
US8506404B2 (en) * 2007-05-07 2013-08-13 Samsung Electronics Co., Ltd. Wireless gaming method and wireless gaming-enabled mobile terminal
US20110046915A1 (en) * 2007-05-15 2011-02-24 Xsens Holding B.V. Use of positioning aiding system for inertial motion capture
US20100054746A1 (en) 2007-07-24 2010-03-04 Eric Raymond Logan Multi-port accumulator for radio-over-fiber (RoF) wireless picocellular systems
US7980141B2 (en) 2007-07-27 2011-07-19 Robert Connor Wearable position or motion sensing systems or methods
US20090094188A1 (en) * 2007-10-03 2009-04-09 Edward Covannon Facilitating identification of an object recorded in digital content records
US8175459B2 (en) 2007-10-12 2012-05-08 Corning Cable Systems Llc Hybrid wireless/wired RoF transponder and hybrid RoF communication system using same
KR100933024B1 (ko) 2007-12-05 2009-12-21 삼성중공업 주식회사 부재 위치 정보 인식 장치 및 방법
US20110009194A1 (en) * 2007-12-06 2011-01-13 Oz Gabai Acoustic motion capture
WO2009081376A2 (en) 2007-12-20 2009-07-02 Mobileaccess Networks Ltd. Extending outdoor location based services and applications into enclosed areas
US8222996B2 (en) 2007-12-31 2012-07-17 Intel Corporation Radio frequency identification tags adapted for localization and state indication
DK2231013T3 (da) 2008-01-16 2012-02-20 Univ Syddansk Integreret enhed til overvågning af rumlig bevægelse
PT103933A (pt) * 2008-01-17 2009-07-17 Univ Do Porto Dispositivo portátil e método para medição e cálculo de parâmetros dinâmicos da locomoção pedestre
US7768444B1 (en) 2008-01-29 2010-08-03 Rourk Christopher J Weapon detection and elimination system
US7817162B2 (en) * 2008-02-11 2010-10-19 University Of Northern Iowa Research Foundation Virtual blasting system for removal of coating and/or rust from a virtual surface
US8696458B2 (en) * 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US7796471B2 (en) * 2008-02-20 2010-09-14 Intelligent Sciences, Ltd. Ultrasonic in-building positioning system based on phase difference array with ranging
US8170698B1 (en) 2008-02-20 2012-05-01 Mark David Gusack Virtual robotic controller system with special application to robotic microscopy structure and methodology
US9189083B2 (en) 2008-03-18 2015-11-17 Orthosensor Inc. Method and system for media presentation during operative workflow
US20110060248A1 (en) * 2008-03-18 2011-03-10 Tomotoshi Ishida Physical configuration detector, physical configuration detecting program, and physical configuration detecting method
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
GB0808081D0 (en) * 2008-05-02 2008-06-11 In2Games Ltd Bridging ultrasonic position with accelerometer/gyroscope inertial guidance
GB0812322D0 (en) * 2008-07-04 2008-08-13 Berlin Armstrong Locatives Ltd Method of generating motion capture data and/or animation data
US8289154B2 (en) * 2008-07-14 2012-10-16 Mine Safety Appliances Company Devices, systems and method of determining the location of mobile personnel
US9301712B2 (en) * 2008-07-29 2016-04-05 Portland State University Method and apparatus for continuous measurement of motor symptoms in parkinson's disease and essential tremor with wearable sensors
KR20100026334A (ko) * 2008-08-29 2010-03-10 김진우 모델 주위를 비행하는 비행체의 비행 시스템과 비행 제어방법 및 그 비행시스템의 관제시스템
US8766915B2 (en) * 2008-09-09 2014-07-01 Apple Inc. Methods and apparatus for incremental prediction of input device motion
US20100076348A1 (en) * 2008-09-23 2010-03-25 Apdm, Inc Complete integrated system for continuous monitoring and analysis of movement disorders
US8576169B2 (en) * 2008-10-20 2013-11-05 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration
US8647287B2 (en) 2008-12-07 2014-02-11 Andrew Greenberg Wireless synchronized movement monitoring apparatus and system
US8920345B2 (en) * 2008-12-07 2014-12-30 Apdm, Inc. System and apparatus for continuous monitoring of movement disorders
US8587519B2 (en) * 2009-01-07 2013-11-19 Sensor Platforms, Inc. Rolling gesture detection using a multi-dimensional pointing device
US8515707B2 (en) * 2009-01-07 2013-08-20 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter
ES2331170B2 (es) * 2009-01-19 2010-11-29 Universidad Politecnica De Madrid Sistema de analisis cinematico en tiempo real para entrenamientos y competiciones deportivas.
JP5789199B2 (ja) 2009-02-25 2015-10-07 ヴァレンセル,インコーポレイテッド ヘッドセット及びイアバッド
US8788002B2 (en) 2009-02-25 2014-07-22 Valencell, Inc. Light-guiding devices and monitoring devices incorporating same
US20100225491A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228492A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of State Of Delaware Postural information system and method including direction generation based on collection of subject advisory information
US20100228490A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228488A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228154A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100228495A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US20100228494A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining subject advisory information based on prior determined subject advisory information
US20100225490A1 (en) * 2009-03-05 2010-09-09 Leuthardt Eric C Postural information system and method including central determining of subject advisory information based on subject status information and postural influencer status information
US20100228159A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228487A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100225473A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100271200A1 (en) * 2009-03-05 2010-10-28 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including determining response to subject advisory information
US20100225474A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100228153A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method
US20100225498A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Postural information system and method
US9024976B2 (en) * 2009-03-05 2015-05-05 The Invention Science Fund I, Llc Postural information system and method
US20100228158A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including device level determining of subject advisory information based on subject status information and postural influencer status information
US20100228493A1 (en) * 2009-03-05 2010-09-09 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Postural information system and method including direction generation based on collection of subject advisory information
US20100248832A1 (en) * 2009-03-30 2010-09-30 Microsoft Corporation Control of video game via microphone
US20100256939A1 (en) * 2009-04-03 2010-10-07 The Regents Of The University Of Michigan Heading Error Removal System for Tracking Devices
US20110087450A1 (en) * 2009-04-03 2011-04-14 University Of Michigan Heading Error Removal System for Tracking Devices
US20100268551A1 (en) * 2009-04-20 2010-10-21 Apdm, Inc System for data management, analysis, and collaboration of movement disorder data
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US20100311512A1 (en) * 2009-06-04 2010-12-09 Timothy James Lock Simulator with enhanced depth perception
KR101608339B1 (ko) * 2009-06-08 2016-04-11 삼성전자주식회사 위치 측정 장치 및 방법, 및 이동체
CN101579238B (zh) * 2009-06-15 2012-12-19 吴健康 人体运动捕获三维再现系统及其方法
US9590733B2 (en) 2009-07-24 2017-03-07 Corning Optical Communications LLC Location tracking using fiber optic array cables and related systems and methods
KR20110012584A (ko) * 2009-07-31 2011-02-09 삼성전자주식회사 초음파 기반 3차원 위치 추정 장치 및 방법
US11320571B2 (en) 2012-11-16 2022-05-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view with uniform light extraction
US8233204B1 (en) 2009-09-30 2012-07-31 Rockwell Collins, Inc. Optical displays
US9341846B2 (en) 2012-04-25 2016-05-17 Rockwell Collins Inc. Holographic wide angle display
US10795160B1 (en) 2014-09-25 2020-10-06 Rockwell Collins, Inc. Systems for and methods of using fold gratings for dual axis expansion
US11300795B1 (en) 2009-09-30 2022-04-12 Digilens Inc. Systems for and methods of using fold gratings coordinated with output couplers for dual axis expansion
US8981904B2 (en) * 2009-11-06 2015-03-17 Xsens Holding B.V. Compression of IMU data for transmission of AP
WO2011068184A1 (ja) * 2009-12-03 2011-06-09 独立行政法人産業技術総合研究所 移動体の測位装置
TWI397671B (zh) * 2009-12-16 2013-06-01 Ind Tech Res Inst 定位載體、估測載體姿態與建地圖之系統與方法
CN102109348B (zh) * 2009-12-25 2013-01-16 财团法人工业技术研究院 定位载体、估测载体姿态与建地图的系统与方法
US9011448B2 (en) * 2009-12-31 2015-04-21 Orthosensor Inc. Orthopedic navigation system with sensorized devices
WO2011082304A1 (en) 2009-12-31 2011-07-07 Pioneer Hi-Bred International, Inc. Engineering plant resistance to diseases caused by pathogens
US20110181601A1 (en) * 2010-01-22 2011-07-28 Sony Computer Entertainment America Inc. Capturing views and movements of actors performing within generated scenes
US8659826B1 (en) 2010-02-04 2014-02-25 Rockwell Collins, Inc. Worn display system and method without requiring real time tracking for boresight precision
US8825435B2 (en) * 2010-02-19 2014-09-02 Itrack, Llc Intertial tracking system with provision for position correction
US8900165B2 (en) * 2010-03-01 2014-12-02 University Of Maryland, College Park Balance training system
JP5614527B2 (ja) * 2010-03-05 2014-10-29 セイコーエプソン株式会社 姿勢情報算出装置、姿勢情報算出システム、姿勢情報算出方法及び姿勢情報算出プログラム
US8610771B2 (en) * 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
PT3199135T (pt) 2010-03-30 2018-11-14 Enraf Nonius B V Aparelho de fisioterapia
DK3199135T3 (en) * 2010-03-30 2018-12-10 Enraf Nonius B V PHYSIOTHERAPY EQUIPMENT
AU2011232897B2 (en) 2010-03-31 2015-11-05 Corning Optical Communications LLC Localization services in optical fiber-based distributed communications components and systems, and related methods
CN101799934A (zh) * 2010-04-02 2010-08-11 北京大学软件与微电子学院无锡产学研合作教育基地 一种基于微机电惯性传感网络的实时人体运动捕捉系统
US20110263331A1 (en) * 2010-04-22 2011-10-27 Bloomjack Oy Device, system and method for measurement of physical activity
JP5628560B2 (ja) * 2010-06-02 2014-11-19 富士通株式会社 携帯電子機器、歩行軌跡算出プログラム及び歩行姿勢診断方法
EP2585835A1 (de) * 2010-06-22 2013-05-01 Stephen J. McGregor Verfahren zur überwachung der bewegung eines menschlichen körpers
US8570914B2 (en) 2010-08-09 2013-10-29 Corning Cable Systems Llc Apparatuses, systems, and methods for determining location of a mobile device(s) in a distributed antenna system(s)
US20120212374A1 (en) * 2010-08-17 2012-08-23 Qualcomm Incorporated Method and apparatus for rf-based ranging with multiple antennas
US9055226B2 (en) 2010-08-31 2015-06-09 Cast Group Of Companies Inc. System and method for controlling fixtures based on tracking data
US9350923B2 (en) 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
US8854594B2 (en) * 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
US20120065926A1 (en) * 2010-09-14 2012-03-15 Samsung Electronics Co., Ltd Integrated motion sensing apparatus
KR101232049B1 (ko) * 2010-09-27 2013-02-12 한국지질자원연구원 포탄의 낙하위치결정시스템 및 이를 이용한 포탄의 낙하위치 결정방법
US8957909B2 (en) 2010-10-07 2015-02-17 Sensor Platforms, Inc. System and method for compensating for drift in a display of a user interface state
MY164768A (en) 2010-10-25 2018-01-30 Lockheed Corp Estimating position and orientation of an underwater vehicle based on correlated sensor data
US8957812B1 (en) 2010-11-12 2015-02-17 Position Imaging, Inc. Position tracking system and method using radio signals and inertial sensing
US10416276B2 (en) 2010-11-12 2019-09-17 Position Imaging, Inc. Position tracking system and method using radio signals and inertial sensing
US11175375B2 (en) 2010-11-12 2021-11-16 Position Imaging, Inc. Position tracking system and method using radio signals and inertial sensing
US9019150B2 (en) 2011-02-21 2015-04-28 TransRobotics, Inc. System and method for sensing distance and/or movement
US8937663B2 (en) * 2011-04-01 2015-01-20 Microsoft Corporation Camera and sensor augmented reality techniques
US9274349B2 (en) 2011-04-07 2016-03-01 Digilens Inc. Laser despeckler based on angular diversity
US9262950B2 (en) 2011-04-20 2016-02-16 Microsoft Technology Licensing, Llc Augmented reality extrapolation techniques
EP2702710A4 (de) 2011-04-29 2014-10-29 Corning Cable Sys Llc Bestimmung der weiterleitungsverzögerung von kommunikationen in verteilten antennensystemen sowie entsprechende komponenten, systeme und verfahren
US8831794B2 (en) 2011-05-04 2014-09-09 Qualcomm Incorporated Gesture recognition via an ad-hoc proximity sensor mesh for remotely controlling objects
ES2397031B1 (es) * 2011-05-10 2014-01-27 Universidade Da Coruña Sistema de realidad virtual para la evaluación y el tratamiento de los trastornos motores asociados a las enfermedades neurodegenerativas y a la edad.
US9062978B2 (en) 2011-05-31 2015-06-23 Massachusetts Institute Of Technology Tracking a body by nonlinear and non-Gaussian parametric filtering
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2013052187A2 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9243902B2 (en) 2011-07-26 2016-01-26 Thales Visionix, Inc. System for light source location detection
US8771206B2 (en) 2011-08-19 2014-07-08 Accenture Global Services Limited Interactive virtual care
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
EP2995986B1 (de) 2011-08-24 2017-04-12 Rockwell Collins, Inc. Datenanzeige
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
FR2979474B1 (fr) * 2011-08-26 2013-09-27 Schneider Electric Ind Sas Dispositif de contacts de puissance a compensation electrodynamique
US8903207B1 (en) 2011-09-30 2014-12-02 Rockwell Collins, Inc. System for and method of extending vertical field of view in head up display utilizing a waveguide combiner
US9599813B1 (en) 2011-09-30 2017-03-21 Rockwell Collins, Inc. Waveguide combiner system and method with less susceptibility to glare
US8634139B1 (en) 2011-09-30 2014-01-21 Rockwell Collins, Inc. System for and method of catadioptric collimation in a compact head up display (HUD)
US9366864B1 (en) 2011-09-30 2016-06-14 Rockwell Collins, Inc. System for and method of displaying information without need for a combiner alignment detector
US8937772B1 (en) 2011-09-30 2015-01-20 Rockwell Collins, Inc. System for and method of stowing HUD combiners
US9715067B1 (en) 2011-09-30 2017-07-25 Rockwell Collins, Inc. Ultra-compact HUD utilizing waveguide pupil expander with surface relief gratings in high refractive index materials
WO2013066821A2 (en) 2011-10-28 2013-05-10 Decision Sciences International Corporation Spread spectrum coded waveforms in ultrasound imaging
US9945940B2 (en) 2011-11-10 2018-04-17 Position Imaging, Inc. Systems and methods of wireless position tracking
US9933509B2 (en) 2011-11-10 2018-04-03 Position Imaging, Inc. System for tracking an object using pulsed frequency hopping
US10030931B1 (en) * 2011-12-14 2018-07-24 Lockheed Martin Corporation Head mounted display-based training tool
WO2013102759A2 (en) 2012-01-06 2013-07-11 Milan Momcilo Popovich Contact image sensor using switchable bragg gratings
US9459276B2 (en) 2012-01-06 2016-10-04 Sensor Platforms, Inc. System and method for device self-calibration
WO2013104006A2 (en) 2012-01-08 2013-07-11 Sensor Platforms, Inc. System and method for calibrating sensors for different operating environments
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9228842B2 (en) 2012-03-25 2016-01-05 Sensor Platforms, Inc. System and method for determining a uniform external magnetic field
US9523852B1 (en) 2012-03-28 2016-12-20 Rockwell Collins, Inc. Micro collimator system and method for a head up display (HUD)
KR101939683B1 (ko) * 2012-03-29 2019-01-18 삼성전자 주식회사 사용자 행동 실시간 인식장치 및 방법
US9781553B2 (en) 2012-04-24 2017-10-03 Corning Optical Communications LLC Location based services in a distributed communication system, and related components and methods
WO2013181247A1 (en) 2012-05-29 2013-12-05 Corning Cable Systems Llc Ultrasound-based localization of client devices with inertial navigation supplement in distributed communication systems and related devices and methods
US9782669B1 (en) 2012-06-14 2017-10-10 Position Imaging, Inc. RF tracking with active sensory feedback
US10269182B2 (en) 2012-06-14 2019-04-23 Position Imaging, Inc. RF tracking with active sensory feedback
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US10321873B2 (en) 2013-09-17 2019-06-18 Medibotics Llc Smart clothing for ambulatory human motion capture
US9582072B2 (en) 2013-09-17 2017-02-28 Medibotics Llc Motion recognition clothing [TM] with flexible electromagnetic, light, or sonic energy pathways
US10602965B2 (en) 2013-09-17 2020-03-31 Medibotics Wearable deformable conductive sensors for human motion capture including trans-joint pitch, yaw, and roll
US10716510B2 (en) 2013-09-17 2020-07-21 Medibotics Smart clothing with converging/diverging bend or stretch sensors for measuring body motion or configuration
US9519344B1 (en) 2012-08-14 2016-12-13 Position Imaging, Inc. User input system for immersive interaction
US10180490B1 (en) 2012-08-24 2019-01-15 Position Imaging, Inc. Radio frequency communication system
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
JP6273662B2 (ja) 2012-10-05 2018-02-07 トランスロボティックス,インク. 高分解能距離感知のためのシステム及び方法、並びにその適用
US9060682B2 (en) * 2012-10-25 2015-06-23 Alpinereplay, Inc. Distributed systems and methods to measure and process sport motions
US9316667B2 (en) 2012-11-14 2016-04-19 Bose Corporation Accelerometer leveling in an actively controlled vehicle suspension
US9933684B2 (en) 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
US20140142442A1 (en) 2012-11-19 2014-05-22 Judy Sibille SNOW Audio Feedback for Medical Conditions
US9726498B2 (en) 2012-11-29 2017-08-08 Sensor Platforms, Inc. Combining monitoring sensor measurements and system signals to determine device context
US10234539B2 (en) 2012-12-15 2019-03-19 Position Imaging, Inc. Cycling reference multiplexing receiver system
US11350237B2 (en) * 2012-12-21 2022-05-31 Sfara, Inc. System and method for determining smartphone location
US9158864B2 (en) 2012-12-21 2015-10-13 Corning Optical Communications Wireless Ltd Systems, methods, and devices for documenting a location of installed equipment
EP2753060A3 (de) * 2013-01-07 2016-01-20 Cast Group Of Companies Inc. System und Verfahren zur Steuerung auf Befestigungen basierend auf Datenverfolgung
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
US10856108B2 (en) 2013-01-18 2020-12-01 Position Imaging, Inc. System and method of locating a radio frequency (RF) tracking device using a calibration routine
US9482741B1 (en) 2013-01-18 2016-11-01 Position Imaging, Inc. System and method of locating a radio frequency (RF) tracking device using a calibration routine
US11311209B1 (en) 2013-01-19 2022-04-26 Bertec Corporation Force measurement system and a motion base used therein
US10856796B1 (en) 2013-01-19 2020-12-08 Bertec Corporation Force measurement system
US11540744B1 (en) 2013-01-19 2023-01-03 Bertec Corporation Force measurement system
US11052288B1 (en) 2013-01-19 2021-07-06 Bertec Corporation Force measurement system
US11857331B1 (en) 2013-01-19 2024-01-02 Bertec Corporation Force measurement system
US10646153B1 (en) * 2013-01-19 2020-05-12 Bertec Corporation Force measurement system
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US10037474B2 (en) 2013-03-15 2018-07-31 Leap Motion, Inc. Determining the relative locations of multiple motion-tracking devices
US9251587B2 (en) * 2013-04-05 2016-02-02 Caterpillar Inc. Motion estimation utilizing range detection-enhanced visual odometry
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9674413B1 (en) 2013-04-17 2017-06-06 Rockwell Collins, Inc. Vision system and method having improved performance and solar mitigation
WO2014176033A1 (en) * 2013-04-25 2014-10-30 Corning Optical Communications LLC Ultrasound-based location determination and inertial navigation with accuracy improvement in determining client device location
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10609762B2 (en) 2013-06-06 2020-03-31 Zebra Technologies Corporation Method, apparatus, and computer program product improving backhaul of sensor and other data to real time location system network
US9699278B2 (en) 2013-06-06 2017-07-04 Zih Corp. Modular location tag for a real time location system network
US11423464B2 (en) 2013-06-06 2022-08-23 Zebra Technologies Corporation Method, apparatus, and computer program product for enhancement of fan experience based on location data
US9517417B2 (en) 2013-06-06 2016-12-13 Zih Corp. Method, apparatus, and computer program product for performance analytics determining participant statistical data and game status data
US9002485B2 (en) 2013-06-06 2015-04-07 Zih Corp. Method, apparatus, and computer program product for performance analytics determining play models and outputting events based on real-time data for proximity and movement of objects
US10437658B2 (en) 2013-06-06 2019-10-08 Zebra Technologies Corporation Method, apparatus, and computer program product for collecting and displaying sporting event data based on real time data for proximity and movement of objects
US9715005B2 (en) 2013-06-06 2017-07-25 Zih Corp. Method, apparatus, and computer program product improving real time location systems with multiple location technologies
WO2015015138A1 (en) 2013-07-31 2015-02-05 Milan Momcilo Popovich Method and apparatus for contact image sensing
US9844359B2 (en) 2013-09-13 2017-12-19 Decision Sciences Medical Company, LLC Coherent spread-spectrum coded waveforms in synthetic aperture image formation
CN103471590A (zh) * 2013-09-22 2013-12-25 江苏美伦影像系统有限公司 一种运动惯性追踪系统
US20150085111A1 (en) * 2013-09-25 2015-03-26 Symbol Technologies, Inc. Identification using video analytics together with inertial sensor data
US9244281B1 (en) 2013-09-26 2016-01-26 Rockwell Collins, Inc. Display system and method using a detached combiner
US9785231B1 (en) * 2013-09-26 2017-10-10 Rockwell Collins, Inc. Head worn display integrity monitor system and methods
US9952084B2 (en) * 2013-10-10 2018-04-24 Apm Automation Solutions Ltd Increasing signal to noise ratio of acoustic echoes by a group of spaced apart acoustic transceiver arrays
US9952083B2 (en) * 2013-10-10 2018-04-24 Apm Automation Solutions Ltd Movable system for measuring a content of a bin
US9952318B2 (en) * 2013-10-10 2018-04-24 Apm Automation Solutions Ltd Group of spaced apart acoustic transceiver arrays and a method for measuring a content of a bin
US9201145B2 (en) 2013-10-17 2015-12-01 Globalfoundries Inc. Object location in three dimensional space using LED lights
US9077321B2 (en) 2013-10-23 2015-07-07 Corning Optical Communications Wireless Ltd. Variable amplitude signal generators for generating a sinusoidal signal having limited direct current (DC) offset variation, and related devices, systems, and methods
US10634761B2 (en) 2013-12-13 2020-04-28 Position Imaging, Inc. Tracking system with mobile reader
CN103728589B (zh) * 2014-01-09 2016-05-11 上海京颐科技股份有限公司 一种室内定位方法
US10732407B1 (en) 2014-01-10 2020-08-04 Rockwell Collins, Inc. Near eye head up display system and method with fixed combiner
US9497728B2 (en) 2014-01-17 2016-11-15 Position Imaging, Inc. Wireless relay station for radio frequency-based tracking system
KR102016551B1 (ko) * 2014-01-24 2019-09-02 한화디펜스 주식회사 위치 추정 장치 및 방법
US9519089B1 (en) 2014-01-30 2016-12-13 Rockwell Collins, Inc. High performance volume phase gratings
US10200819B2 (en) 2014-02-06 2019-02-05 Position Imaging, Inc. Virtual reality and augmented reality functionality for mobile devices
US9244280B1 (en) 2014-03-25 2016-01-26 Rockwell Collins, Inc. Near eye display system and method for display enhancement or redundancy
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US9661455B2 (en) 2014-06-05 2017-05-23 Zih Corp. Method, apparatus, and computer program product for real time location system referencing in physically and radio frequency challenged environments
WO2015187991A1 (en) 2014-06-05 2015-12-10 Zih Corp. Systems, apparatus and methods for variable rate ultra-wideband communications
US20150375083A1 (en) 2014-06-05 2015-12-31 Zih Corp. Method, Apparatus, And Computer Program Product For Enhancement Of Event Visualizations Based On Location Data
DE112015002629T5 (de) 2014-06-05 2017-03-09 Zih Corp. Empfängerprozessor für adaptive Fenstertechnik und Hochauflösungs-Ankunftszeitbestimmung in einem Zielortungssystem mit mehreren Empfängern
US9668164B2 (en) 2014-06-05 2017-05-30 Zih Corp. Receiver processor for bandwidth management of a multiple receiver real-time location system (RTLS)
US9626616B2 (en) 2014-06-05 2017-04-18 Zih Corp. Low-profile real-time location system tag
US10261169B2 (en) 2014-06-05 2019-04-16 Zebra Technologies Corporation Method for iterative target location in a multiple receiver target location system
US9759803B2 (en) 2014-06-06 2017-09-12 Zih Corp. Method, apparatus, and computer program product for employing a spatial association model in a real time location system
CN113050031A (zh) * 2014-06-06 2021-06-29 斑马技术公司 改进利用多个位置技术的实时位置系统的方法、装置和计算机程序产品
US10282696B1 (en) * 2014-06-06 2019-05-07 Amazon Technologies, Inc. Augmented reality enhanced interaction system
US10234306B2 (en) * 2014-07-11 2019-03-19 Sixense Enterprises Inc. Method and apparatus for synchronizing a transmitter and receiver in a magnetic tracking system
US10359736B2 (en) 2014-08-08 2019-07-23 Digilens Inc. Method for holographic mastering and replication
US10768708B1 (en) 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
US9584981B2 (en) * 2014-08-27 2017-02-28 Qualcomm Incorporated Method and apparatus for real-time, mobile-based positioning according to sensor and radio frequency measurements
WO2016042283A1 (en) 2014-09-19 2016-03-24 Milan Momcilo Popovich Method and apparatus for generating input images for holographic waveguide displays
US20160084937A1 (en) * 2014-09-22 2016-03-24 Invensense Inc. Systems and methods for determining position information using acoustic sensing
US10088675B1 (en) 2015-05-18 2018-10-02 Rockwell Collins, Inc. Turning light pipe for a pupil expansion system and method
US9715110B1 (en) 2014-09-25 2017-07-25 Rockwell Collins, Inc. Automotive head up display (HUD)
US10238979B2 (en) 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
US10775165B2 (en) * 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
EP3017761B1 (de) * 2014-11-06 2021-07-21 Fundación Tecnalia Research & Innovation System für funktionelle Gleichgewichtsbeurteilung
US10609475B2 (en) 2014-12-05 2020-03-31 Stages Llc Active noise control and customized audio system
CN111323867A (zh) 2015-01-12 2020-06-23 迪吉伦斯公司 环境隔离的波导显示器
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
US10324474B2 (en) 2015-02-13 2019-06-18 Position Imaging, Inc. Spatial diversity for relative position tracking
US11132004B2 (en) 2015-02-13 2021-09-28 Position Imaging, Inc. Spatial diveristy for relative position tracking
US10642560B2 (en) 2015-02-13 2020-05-05 Position Imaging, Inc. Accurate geographic tracking of mobile devices
US10212325B2 (en) 2015-02-17 2019-02-19 Alpinereplay, Inc. Systems and methods to control camera operations
KR20180096493A (ko) 2015-02-25 2018-08-29 디시전 사이선씨즈 메디컬 컴패니, 엘엘씨 음향 신호 전송 접촉매질 및 결합 매체
US10444018B2 (en) * 2015-02-27 2019-10-15 Microsoft Technology Licensing, Llc Computer-implemented method to test the sensitivity of a sensor for detecting movement of a tracking device within an established frame of reference of a moving platform
US10111620B2 (en) 2015-02-27 2018-10-30 Microsoft Technology Licensing, Llc Enhanced motion tracking using transportable inertial sensors to determine that a frame of reference is established
US10148918B1 (en) 2015-04-06 2018-12-04 Position Imaging, Inc. Modular shelving systems for package tracking
US10853757B1 (en) 2015-04-06 2020-12-01 Position Imaging, Inc. Video for real-time confirmation in package tracking systems
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US10966606B1 (en) 2015-04-17 2021-04-06 Bertec Corporation System and method for measuring the head position and postural sway of a subject
US10342473B1 (en) * 2015-04-17 2019-07-09 Bertec Corporation System and method for measuring eye movement and/or eye position and postural sway of a subject
US20160321917A1 (en) * 2015-04-30 2016-11-03 Board Of Regents, The University Of Texas System Utilizing a mobile device as a motion-based controller
US11366316B2 (en) 2015-05-18 2022-06-21 Rockwell Collins, Inc. Head up display (HUD) using a light pipe
US10247943B1 (en) 2015-05-18 2019-04-02 Rockwell Collins, Inc. Head up display (HUD) using a light pipe
US10126552B2 (en) 2015-05-18 2018-11-13 Rockwell Collins, Inc. Micro collimator system and method for a head up display (HUD)
US10108010B2 (en) 2015-06-29 2018-10-23 Rockwell Collins, Inc. System for and method of integrating head up displays and head down displays
CN107923975A (zh) * 2015-07-09 2018-04-17 深圳市大疆创新科技有限公司 用于超声波测距的系统和方法
CN106403936A (zh) * 2015-07-30 2017-02-15 置富存储科技(深圳)有限公司 用于计算使用者控制运动板的移动轨迹系统
CN105105759B (zh) * 2015-08-31 2018-11-30 张昊华 康复行为辅助方法及移动智能动作监测康复指导仪
EP3359999A1 (de) 2015-10-05 2018-08-15 Popovich, Milan Momcilo Wellenleiteranzeige
AU2016334258B2 (en) 2015-10-08 2021-07-01 Decision Sciences Medical Company, LLC Acoustic orthopedic tracking system and methods
US10264996B2 (en) * 2015-10-19 2019-04-23 Sayfe Kiaei Method and apparatus for wirelessly monitoring repetitive bodily movements
US10321208B2 (en) 2015-10-26 2019-06-11 Alpinereplay, Inc. System and method for enhanced video image recognition using motion sensors
US10345445B2 (en) * 2015-11-02 2019-07-09 Semiconductor Components Industries, Llc Circuit for acoustic distance measuring
DE102015223003A1 (de) * 2015-11-20 2017-05-24 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Überlagerung zumindest eines Teils eines Objekts mit einer virtuellen Oberfläche
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
DE102015226762B4 (de) * 2015-12-28 2024-04-25 Robert Bosch Gmbh Verfahren zur Korrektur mindestens eines Kollisionsparameters und korrespondierendes integriertes Sicherheitssystem für ein Fahrzeug
US10598932B1 (en) 2016-01-06 2020-03-24 Rockwell Collins, Inc. Head up display for integrating views of conformally mapped symbols and a fixed image source
US9874931B1 (en) 2016-02-22 2018-01-23 Rockwell Collins, Inc. Head-tracking system and method
US10444323B2 (en) 2016-03-08 2019-10-15 Position Imaging, Inc. Expandable, decentralized position tracking systems and methods
US9648580B1 (en) 2016-03-23 2017-05-09 Corning Optical Communications Wireless Ltd Identifying remote units in a wireless distribution system (WDS) based on assigned unique temporal delay patterns
CN108780224B (zh) 2016-03-24 2021-08-03 迪吉伦斯公司 用于提供偏振选择性全息波导装置的方法和设备
WO2017178781A1 (en) 2016-04-11 2017-10-19 GRANT, Alastair, John Holographic waveguide apparatus for structured light projection
WO2017189450A1 (en) * 2016-04-26 2017-11-02 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
US10890600B2 (en) 2016-05-18 2021-01-12 Google Llc Real-time visual-inertial motion tracking fault detection
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
US11017610B2 (en) 2016-05-18 2021-05-25 Google Llc System and method for fault detection and recovery for concurrent odometry and mapping
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
CN105865266B (zh) * 2016-05-31 2017-07-25 公安部上海消防研究所 头戴式水炮瞄准控制装置
WO2018002004A1 (en) 2016-06-30 2018-01-04 Koninklijke Philips N.V. Intertial device tracking system and method of operation thereof
CN106199066B (zh) * 2016-07-08 2019-09-24 上海与德通讯技术有限公司 智能终端的方向校准方法、装置
CN106020206A (zh) * 2016-07-26 2016-10-12 上海海洋大学 一种基于信标导航的水质改良船及其控制系统和控制流程
US9891705B1 (en) 2016-08-25 2018-02-13 Rockwell Collins, Inc. Automatic boresighting of head-worn display
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
US10438389B2 (en) * 2016-11-07 2019-10-08 Htc Corporation Method, device, and non-transitory computer readable storage medium for displaying virtual reality or augmented reality environment according to a viewing angle
US10945080B2 (en) 2016-11-18 2021-03-09 Stages Llc Audio analysis and processing system
US9980042B1 (en) 2016-11-18 2018-05-22 Stages Llc Beamformer direction of arrival and orientation analysis system
US9980075B1 (en) 2016-11-18 2018-05-22 Stages Llc Audio source spatialization relative to orientation sensor and output
TWI634343B (zh) * 2016-11-21 2018-09-01 宏達國際電子股份有限公司 定位裝置及定位方法
US10545219B2 (en) * 2016-11-23 2020-01-28 Chirp Microsystems Three dimensional object-localization and tracking using ultrasonic pulses
RU2746686C2 (ru) 2016-11-25 2021-04-19 Сенсорикс Аг Носимая система отслеживания движения
US11513350B2 (en) 2016-12-02 2022-11-29 Digilens Inc. Waveguide device with uniform output illumination
US10634506B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10634503B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10455364B2 (en) 2016-12-12 2019-10-22 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10942252B2 (en) 2016-12-26 2021-03-09 Htc Corporation Tracking system and tracking method
US10649066B2 (en) 2016-12-26 2020-05-12 Htc Corporation Positioning system and method thereof
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
US11120392B2 (en) 2017-01-06 2021-09-14 Position Imaging, Inc. System and method of calibrating a directional light source relative to a camera's field of view
DE102017100622A1 (de) 2017-01-13 2018-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zum Korrigieren von Ausrichtungsinformationen von einem oder mehreren Trägheitssensoren
US10843068B2 (en) 2017-01-18 2020-11-24 Xvisio Technology Corp. 6DoF inside-out tracking game controller
US10295824B2 (en) 2017-01-26 2019-05-21 Rockwell Collins, Inc. Head up display with an angled light pipe
JP7191843B2 (ja) * 2017-03-07 2022-12-19 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 自律車両用の行動計画システム及び方法
TWI635318B (zh) * 2017-04-28 2018-09-11 宏星技術股份有限公司 頭戴式顯示器、控制方法,以及非暫時性電腦可讀取媒體
US10216265B1 (en) 2017-08-07 2019-02-26 Rockwell Collins, Inc. System and method for hybrid optical/inertial headtracking via numerically stable Kalman filter
CN116149058A (zh) 2017-10-16 2023-05-23 迪吉伦斯公司 用于倍增像素化显示器的图像分辨率的系统和方法
WO2019113380A1 (en) * 2017-12-06 2019-06-13 Invensense, Inc. Three dimensional object-localization and tracking using ultrasonic pulses with synchronized inertial position determination
US10914950B2 (en) 2018-01-08 2021-02-09 Digilens Inc. Waveguide architectures and related methods of manufacturing
CN115356905A (zh) 2018-01-08 2022-11-18 迪吉伦斯公司 波导单元格中全息光栅高吞吐量记录的系统和方法
CN110495185B (zh) * 2018-03-09 2022-07-01 深圳市汇顶科技股份有限公司 语音信号处理方法及装置
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
EP3811372B1 (de) 2018-06-20 2023-11-08 SWORD Health S.A. Verfahren und system zur bestimmung einer korrekten wiedergabe einer bewegung
WO2020023779A1 (en) 2018-07-25 2020-01-30 Digilens Inc. Systems and methods for fabricating a multilayer optical structure
US11255871B1 (en) * 2018-08-03 2022-02-22 Mcube, Inc. Differential MEMS device and methods
MX2021003341A (es) 2018-09-21 2021-08-16 Position Imaging Inc Sistema y metodo de identificacion de objetos automejorada asistida con aprendizaje automatico.
WO2020090042A1 (ja) * 2018-10-31 2020-05-07 株式会社ソニー・インタラクティブエンタテインメント トラッカーのキャリブレーション装置、トラッカーのキャリブレーション方法及びプログラム
CN109655056A (zh) * 2018-11-26 2019-04-19 江苏科技大学 一种深海采矿车复合定位系统及其定位方法
WO2020146861A1 (en) 2019-01-11 2020-07-16 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
CN109883418A (zh) * 2019-01-17 2019-06-14 中国科学院遥感与数字地球研究所 一种室内定位方法及装置
CN109883416A (zh) * 2019-01-23 2019-06-14 中国科学院遥感与数字地球研究所 一种结合可见光通信定位和惯导定位的定位方法及装置
CN113692544A (zh) 2019-02-15 2021-11-23 迪吉伦斯公司 使用集成光栅提供全息波导显示的方法和装置
US10539644B1 (en) * 2019-02-27 2020-01-21 Northern Digital Inc. Tracking an object in an electromagnetic field
US10786729B1 (en) 2019-03-08 2020-09-29 Sony Interactive Entertainment Inc. Thermopile array fusion tracking
US20200292745A1 (en) 2019-03-12 2020-09-17 Digilens Inc. Holographic Waveguide Backlight and Related Methods of Manufacturing
EP3719532B1 (de) 2019-04-04 2022-12-28 Transrobotics, Inc. Technologien zum handeln auf basis von objektverfolgung
CN109946650B (zh) * 2019-04-12 2023-09-15 扬州市职业大学(扬州市广播电视大学) 一种无线同步收发分离的定位系统及方法
WO2020219705A1 (en) 2019-04-23 2020-10-29 Allan Wegner Semi-rigid acoustic coupling articles for ultrasound diagnostic and treatment applications
US11287505B2 (en) 2019-05-13 2022-03-29 Cast Group Of Companies Inc. Electronic tracking device and related system
WO2020247930A1 (en) 2019-06-07 2020-12-10 Digilens Inc. Waveguides incorporating transmissive and reflective gratings and related methods of manufacturing
JP2022543571A (ja) 2019-07-29 2022-10-13 ディジレンズ インコーポレイテッド 画素化されたディスプレイの画像解像度および視野を乗算するための方法および装置
US10976818B2 (en) 2019-08-21 2021-04-13 Universal City Studios Llc Interactive attraction system and method for object and user association
US11442222B2 (en) 2019-08-29 2022-09-13 Digilens Inc. Evacuated gratings and methods of manufacturing
US11599257B2 (en) * 2019-11-12 2023-03-07 Cast Group Of Companies Inc. Electronic tracking device and charging apparatus
US11320650B1 (en) 2020-06-02 2022-05-03 Rockwell Collins, Inc. High assurance head tracking system incorporating ground truth fiducials
US11360552B1 (en) 2020-06-02 2022-06-14 Rockwell Collins, Inc. High assurance headtracking via structured light projection for head worn display (HWD)
CN116685847A (zh) 2020-11-13 2023-09-01 决策科学医疗有限责任公司 用于对象的合成孔径超声成像的系统和方法
FR3129232B1 (fr) * 2021-11-17 2023-11-03 Drhm Investissements Interface de navigation en environnement virtuel

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3630079A (en) 1969-03-27 1971-12-28 Texas Instruments Inc Navigation method and apparatus utilizing multiple sensors
US4067015A (en) 1975-07-11 1978-01-03 The United States Of America As Represented By The National Aeronautics And Space Administration System and method for tracking a signal source
US4315326A (en) 1980-10-31 1982-02-09 The United States Of America As Represented By The Secretary Of The Navy Inertial measurement underwater tracking system
US4408488A (en) 1982-04-05 1983-10-11 Marshall Samuel W Generalized drifting oceanographic sensor
US4807202A (en) * 1986-04-17 1989-02-21 Allan Cherri Visual environment simulator for mobile viewer
US5086404A (en) * 1988-09-02 1992-02-04 Claussen Claus Frenz Device for simultaneous continuous and separate recording and measurement of head and body movements during standing, walking and stepping
CA1321827C (en) 1988-12-19 1993-08-31 Bruce A. Armstrong Hydrophones and similar devices
US5517300A (en) 1990-05-31 1996-05-14 Parkervision, Inc. Remote controlled tracking system for tracking a remote control unit and positioning and operating a camera
US5231483A (en) * 1990-09-05 1993-07-27 Visionary Products, Inc. Smart tracking system
US5089972A (en) * 1990-12-13 1992-02-18 Nachman Precision Systems, Inc. Moored ship motion determination system
US5279309A (en) 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5495427A (en) * 1992-07-10 1996-02-27 Northrop Grumman Corporation High speed high resolution ultrasonic position and orientation tracker using a single ultrasonic frequency
US5491670A (en) * 1993-01-21 1996-02-13 Weber; T. Jerome System and method for sonic positioning
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
US5412619A (en) 1994-04-14 1995-05-02 Bauer; Will Three-dimensional displacement of a body with computer interface
US5645077A (en) 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
JP3473117B2 (ja) * 1994-08-31 2003-12-02 株式会社デンソー 車両用現在位置検出装置
US5592401A (en) * 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5730129A (en) 1995-04-03 1998-03-24 General Electric Company Imaging of interventional devices in a non-stationary subject
JP3354353B2 (ja) * 1995-06-22 2002-12-09 防衛庁技術研究本部長 飛行体に設けられた慣性航法装置の移動中における調定演算方法
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
JP4012333B2 (ja) * 1999-03-08 2007-11-21 株式会社東海理化電機製作所 ナビゲーション装置

Also Published As

Publication number Publication date
HK1039884B (zh) 2010-04-23
JP4690546B2 (ja) 2011-06-01
CN1308505A (zh) 2001-08-15
US6176837B1 (en) 2001-01-23
CN100522056C (zh) 2009-08-05
US7395181B2 (en) 2008-07-01
US6409687B1 (en) 2002-06-25
EP1071369A1 (de) 2001-01-31
EP1071369A4 (de) 2004-06-09
WO1999053838A1 (en) 1999-10-28
US20040143176A1 (en) 2004-07-22
US20030045816A1 (en) 2003-03-06
EP1071369B1 (de) 2008-02-20
TW497967B (en) 2002-08-11
ATE386463T1 (de) 2008-03-15
JP2002512069A (ja) 2002-04-23
DE69938178D1 (de) 2008-04-03
HK1039884A1 (en) 2002-05-17

Similar Documents

Publication Publication Date Title
DE69938178T2 (de) Bewegungsverfolgungssystem
US7791529B2 (en) System for estimating the speed of an aircraft, and an application thereof to detecting obstacles
US5124938A (en) Gyroless platform stabilization techniques
DE60114798T2 (de) Bewegungsbestimmung
US9008998B2 (en) Systems and methods for processing mapping and modeling data
US5155683A (en) Vehicle remote guidance with path control
DE69929525T2 (de) Verfahren und vorrichtung zur erzeugung von navigationsdaten
US20020180636A1 (en) Passive ranging/tracking processing method
EP1882196A1 (de) Verfahren und system zur lagebestimmung einer empfängereinheit
EP3410064B1 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE10350108A1 (de) Benutzerorientierung und Navigation auf INS-Basis
US11310412B2 (en) Autofocusing camera and systems
DE102008011596B4 (de) Kombiniertes Baken- und Szenen-Navigationssystem
WO1998043113A1 (de) Messverfahren unter einbeziehung der lasertechnik für dreidimensionale objekte
DE19509680A1 (de) Vorrichtung zur ortsungebundenen Erfassung von Handneigungen und -bewegungen
DE10258545B4 (de) Verfahren und System zur Stabilisierung einer Translationsbewegungsgröße eines Flugkörpers
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE60019251T2 (de) Hochgenauer weitreichender optisch gestützter inertial gelenkter flugkörper
EP2225586B1 (de) Entfernungsmessvorrichtung sowie system
DE102013201769A1 (de) Vermessungsanordnung und Verfahren zur Vermessung
DE3406096A1 (de) Bohrlochmesseinrichtung
Vennegeerts et al. Validation of a kinematic laserscanning system
KR102282802B1 (ko) 다축 제어방식의 객체 추적 시스템
DE102021202910A1 (de) Zielführung einer Scanbewegung einer Scaneinheit einer medizintechnischen bildgebenden Einrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition