DE102004061842B4 - Tracking system for mobile applications - Google Patents

Tracking system for mobile applications Download PDF

Info

Publication number
DE102004061842B4
DE102004061842B4 DE102004061842.9A DE102004061842A DE102004061842B4 DE 102004061842 B4 DE102004061842 B4 DE 102004061842B4 DE 102004061842 A DE102004061842 A DE 102004061842A DE 102004061842 B4 DE102004061842 B4 DE 102004061842B4
Authority
DE
Germany
Prior art keywords
measurement
mobile device
instructions
estimator
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102004061842.9A
Other languages
German (de)
Other versions
DE102004061842A1 (en
Inventor
Dr. Alt Thomas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Metaio GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metaio GmbH filed Critical Metaio GmbH
Priority to DE102004061842.9A priority Critical patent/DE102004061842B4/en
Publication of DE102004061842A1 publication Critical patent/DE102004061842A1/en
Application granted granted Critical
Publication of DE102004061842B4 publication Critical patent/DE102004061842B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

Verfahren zum Finden der Position und/oder der Orientierung mobiler Geräte bezüglich realer Objekte, wobei – das mobile Gerät (400) eine Kamera (400-1) aufweist und sich auf dem mobilen Gerät eine Komponente befindet, als Observer (400-2) bezeichnet, welche ein Bild der Kamera untersuchen kann, und – über ein drahtloses Netzwerk (200) das mobile Gerät (400) Messanweisungen (300) von einem Estimator (500-1) erhält, welcher sich auf einem Server (500) befindet, – wobei aufgrund der Messanweisungen der Observer (400-2) Messungen vornimmt und Messdaten (600) an den Estimator sendet, wobei der Estimator mittels der Messdaten ein aktuelles Trackingergebnis (700) errechnet und dieses an ein Grafiksystem, als Renderer (400-3) bezeichnet, des mobilen Gerätes sendet, – wobei mittels des Trackingergebnisses der Renderer (400-3) Augmented Reality-Informationen lagegerecht darstellt, – wobei der Estimator (500-1) die Messanweisungen mit Hilfe eines Bewegungsmodells (500-2) bestimmt und die Messbereiche durch Geometriedaten von realen Objekten eingeschränkt werden, – wobei die Berechnung der Messanweisungen und die Berechnung des Trackingergebnisses durch zusätzliche Sensoren unterstützt werden.A method for finding the location and / or orientation of mobile devices with respect to real objects, wherein - the mobile device (400) comprises a camera (400-1) and a component is located on the mobile device, called Observer (400-2) which can examine an image of the camera, and - via a wireless network (200), the mobile device (400) receives measurement instructions (300) from an estimator (500-1) located on a server (500), - on the basis of the measuring instructions of Observer (400-2) makes measurements and sends measurement data (600) to the estimator, wherein the estimator uses the measurement data to calculate a current tracking result (700) and sends this to a graphics system, called renderer (400-3), of the mobile device sends, - by means of the tracking result of the renderer (400-3) represents augmented reality information in line, - wherein the estimator (500-1) determine the measurement instructions using a movement model (500-2) t and the measuring ranges are limited by geometric data from real objects, - whereby the calculation of the measuring instructions and the calculation of the tracking result are supported by additional sensors.

Description

KurzzusammenfassungQuick Facts

Optisches Tracking auf mobilen Geräten ist mit dem aktuellen Stand der Technik nur unzureichend gelöst. Mobile Geräte besitzen begrenzte Rechenkapazitäten, daher wurde versucht das Videobild per Netzwerk zu übertragen, auf einem Server das Tracking durchzuführen und das angereicherte Bild zurückzuschicken. Die großen Datenmengen für die bidirektionale Übertragung des Videobildes führen allerdings zu unzureichenden Ergebnissen bezüglich der Round-Trip-Time.Optical tracking on mobile devices is not adequately solved with the current state of the art. Mobile devices have limited computing capacity, so they tried to transfer the video image over the network, to perform tracking on a server and to send back the enriched image. The large amounts of data for bidirectional transmission of the video image, however, lead to insufficient results in terms of the round-trip time.

Diese Erfindung zeigt einen Weg auf, das Tracking auf dem Server durchzuführen, ohne ständig das vollständige Videobild zu übertragen. Während der Server die komplexen Trackingvorgänge durchführt, arbeitet der Client einfache Messvorgänge nach Vorgaben des Servers ab. Diese Messvorgänge benötigen geringe Rechnerkapazität und reduzieren die Größe der versendeten Datenpakete enorm.This invention shows a way to perform tracking on the server without constantly transmitting the full video image. While the server performs the complex tracking operations, the client performs simple measurements based on server specifications. These measurements require low computer capacity and reduce the size of the sent data packets enormously.

Stand der TechnikState of the art

Aus dem Stand der Technik sind sogenannte Augmented Reality Systeme bekannt. Diese erlauben die Überlagerung von computergenerierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt, vorzugsweise mit auf dem Kopf getragenen halbdurchlässigen Datenbrillen, mit virtuellen Informationen gemischt. Die Einblendung der virtuellen Informationen bzw. Objekte kann dabei kontextabhängig, d. h. angepasst und abgeleitet von der jeweilig betrachteten realen Umgebung ausgeführt sein. Als Informationen können grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden.So-called augmented reality systems are known from the prior art. These allow the overlay of computer-generated, virtual information with visual impressions of the real environment. For this purpose, the visual impressions of the real world, preferably with semipermeable data glasses worn on the head, are mixed with virtual information. The display of the virtual information or objects can be context-dependent, d. H. adapted and derived from the respective considered real environment be executed. In principle, any kind of data such as texts, images etc. can be used as information.

Dokumentierte Anwendungen der Technologie sehen einen Einsatz in der Produktion, im Service und in der Entwicklung komplexer Produkte vor. Auch ist der Einsatz der Technologie aus der Produktion von Flugzeugen bekannt. Nach der Druckschrift DE 198 32 974 A1 und DE 101 28 015 A1 ist der Einsatz von Augmented Reality Technologien in Produktionsumgebungen bekannt.Documented applications of technology envisage use in the production, service and development of complex products. Also, the use of technology from the production of aircraft is known. After the publication DE 198 32 974 A1 and DE 101 28 015 A1 is the use of augmented reality technologies in production environments known.

Andere Einsatzmöglichkeiten sind zum Beispiel die AR-Dokumentation von Konsumerprodukten.Other uses include, for example, the AR documentation of consumer products.

Zusätzlich sind aus dem Stand der Technik optische Positionserfassungssysteme bekannt, welche die Position und oder Orientierung von Objekten in einem Vermessungsraum bestimmen. Diese sogenannten Tracking-Systeme erlauben beispielsweise die Erfassung von bis zu sechs Freiheitsgraden eines Objektes. Zum Einsatz kommen Systeme mit unterschiedlichsten physikalischen Wirkprinzipien. Gängig sind sogenannte optische Tracking-Systeme, die durch verschiedene Verfahren der computergestützten Bildverarbeitung die Position von im Vermessungsraum befindlichen Objekten und/oder die Position der Kamera über die Erkennung der Objekte bestimmen.In addition, prior art optical position sensing systems are known which determine the position and or orientation of objects in a survey space. These so-called tracking systems allow, for example, the detection of up to six degrees of freedom of an object. Systems with different physical principles of action are used. Commonly used are so-called optical tracking systems that determine the position of objects located in the survey room and / or the position of the camera via the detection of the objects by various methods of computer-aided image processing.

Optische Tracking-Systeme benötigen allerdings für das Erreichen von akzeptablen Geschwindigkeiten (mehr als 5 Bilder pro Sekunde) relativ viel Rechnerkapazität. Dies ist bei mobilen Geräten oft nicht gegeben. Eine mögliche Lösung dieses Problems ist die Auslagerung der Tracking-Berechnungen und der Anreicherung des Videobildes auf einen leistungsstarken Server. Ansätze dazu sind ebenfalls aus dem Stand der Technik bekannt.However, optical tracking systems require relatively high computing capacity to achieve acceptable speeds (more than 5 frames per second). This is often not the case with mobile devices. One possible solution to this problem is to outsource the tracking calculations and enrich the video image to a powerful server. Approaches to this are likewise known from the prior art.

Nach dem Stand der Technik unterscheidet man zwischen sogenannten markerbasierten und sogenannten markerlosen optischen Trackingsystemen. Beim Einsatz zusätzlicher Sensoren, zum Beispiel Intertialsensoren, spricht man von sogenannnten hybriden Trackingsystemen. Die Erfindung ist für jegliche Verfahren von Nutzen.According to the prior art, a distinction is made between so-called marker-based and so-called markerless optical tracking systems. When using additional sensors, for example, intertial sensors, so-called hybrid tracking systems are used. The invention is useful for any process.

Da die freie Suche nach Objekten mittels heute verfügbarer Rechenleistung nicht in ausreichender Geschwindigkeit möglich ist, werden vereinfachende Annahmen getroffen.Since the free search for objects is not possible with sufficient speed thanks to today's available computing power, simplifying assumptions are made.

Eine Möglichkeit zur Vereinfachung der Komplexität, ist die Ausstattung des Trackingraums mit kontrastreichen, leicht zu erkennenden Markierungen, im Folgenden als Marker bezeichnet. Dieser Ansatz hat allerdings den Nachteil, dass der Trackingraum ausgestattet werden muss und das Tracking nur im ausgestatteten Bereich möglich ist. Optische Trackingverfahren mit dieser Methode werden allgemein als markerbasierte Trackingverfahren bezeichnet.One way to simplify the complexity is to equip the tracking room with high-contrast, easily recognizable markers, hereafter referred to as markers. However, this approach has the disadvantage that the tracking room must be equipped and the tracking is possible only in the equipped area. Optical tracking methods using this method are generally referred to as marker-based tracking methods.

Eine andere Möglichkeit zur Vereinfachung der Komplexität ist der Einsatz von Modellen, zum Beispiel statistischen Bewegungsmodellen und/oder zusätzlichen Sensoren, zum Beispiel Beschleunigungssensoren, welche den Suchraum der Bildverarbeitungsalgorithmen einschränken. Obwohl dieser Ansatz die Komplexität vereinfacht ohne dass eine Ausstattung des Raumes nötig ist, kann er nicht bei der Initialisierung behilflich sein. Initialisierung bedeutet in diesem Zusammenhang die Festlegung des inneren Zustands des Systems, so dass der Trackingvorgang erfolgreich und in ausreichend kurzer Zeit durchgeführt werden kann. Das System muss zuerst in einen gültigen Anfangszustand versetzt werden. Dieser Anfangszustand umfasst die ungefähre Position und Orientierung der Realität zur Kamera und vorteilhafterweise Angaben zur aktuellen Bewegung der Kamera.Another possibility for simplifying the complexity is the use of models, for example statistical movement models and / or additional sensors, for example acceleration sensors, which limit the search space of the image processing algorithms. Although this approach simplifies complexity without the need for room equipment, it can not help with initialization. Initialization in this context means the determination of the internal state of the system, so that the tracking process can be carried out successfully and in a sufficiently short time. The system must first be set to a valid initial state. This initial state includes the approximate position and orientation of the reality to the camera and advantageously information about the current movement of the camera.

Systeme, welche auf spezielle Markierungen (Marker) im Raum nicht angewiesen sind, sind aus folgenden Druckschriften bekannt und werden im folgenden als markerlose Tracking-Systeme bezeichnet:
Behringer, R.; Park, J.; Sundareswaran, V.: Model-Based Visual Tracking for Outdoor Augmented Reality Applications. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277
Genc, Y; Riedel, S.; Souvannavong, F.; Akinlar, C.; Navab, N.: Marker-less Tracking for AR: A Learning-Based Approach. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 295
Kar Wee Chia, Adrian David Cheok, Simon J. D. Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277.
Systems which do not rely on special markers in space are known from the following documents and are referred to below as markerless tracking systems:
Behringer, R .; Park, J .; Sundareswaran, V .: Model-Based Visual Tracking for Outdoor Augmented Reality Applications. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 277
Genc, Y; Riedel, S .; Souvannavong, F .; Akinlar, C .; Navab, N .: Marker-less Tracking for AR: A Learning-Based Approach. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 295
KarDe Chia, Adrian David Cheok, Simon JD Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 277.

Eingangsinformation des Systems ist ein zweidimensionales Feld von Rot-, Grün- und Blauintensitäten im Kamerabild. Zusätzlich können Beschleunigungsdaten von zusätzlichen Sensoren eingelesen werden. Ausgangsdaten des Systems sind die Position und/oder vorteilhaftereweise die Orientierung von einem oder mehreren Objekten relativ zur Kamera. Die Elemente der Realität können dann beispielsweise ein Koordinatensystem für Augmented Reality-Informationen aufspannen. Position und Orientierung können vorteilhafterweise durch eine Transformationsmatrix beschrieben werden. Vorteilhafterweise sind Position und Orientierung die Ausgangsdaten des Systems. Vorteilhafterweise können ebenfalls Kalibrierungsdaten von Sensoren Ausgangsdaten sein. Vorteilhafterweise können ebenfalls Modelldaten der Umgebung Ausgangsdaten sein. Die Erfindung bezieht sich aber ebenfalls auf Systeme, bei denen nur Position (ein-, zwei- oder dreidimensional) oder nur Orientierung (ein-, zwei- oder dreidimensional) oder jegliche Kombination der Anzahl der Dimensionen, die Ausgangsdaten darstellen.Input information of the system is a two-dimensional field of red, green and blue intensities in the camera image. In addition, acceleration data can be read in by additional sensors. The output data of the system is the position and / or advantageously the orientation of one or more objects relative to the camera. The elements of reality can then, for example, span a coordinate system for augmented reality information. Position and orientation can advantageously be described by a transformation matrix. Advantageously, position and orientation are the output data of the system. Advantageously, calibration data from sensors may also be output data. Advantageously, model data of the environment may also be output data. However, the invention also relates to systems in which only position (one, two or three dimensional) or only orientation (one, two or three dimensional) or any combination of the number of dimensions represent the output data.

Nachteiledisadvantage

Nachteilig an den bekannten Verfahren zur Umsetzung von AR auf mobilen Systemen ist

  • 1. Anforderungen an Rechnerkapazität übersteigen die Möglichkeiten mobiler Systeme.
  • 2. Übertragung des Videosignals zum Server und zurück erfordert eine große Datenmenge und übersteigt eine akzeptable Round-Trip-Time.
  • 3. Verringerung der zu übertragenden Datenmenge durch Komprimierung des Bildes erfordert ebenfalls viel Zeit und Rechenleistung.
  • 4. Bei hoher Auslastung des Netzwerks wird dies für zusätzliche Funktionen, wie Geometriedaten oder die Kommunikation mit einem entfernten Experten, etc. eingeschränkt.
  • 5. Verfahren, welche die Position des mobilen Gerätes zum Beispiel durch Netzwerkeigenschaften (Mobilfunkzelle, etc. ) erhalten sind sehr ungenau genau.
A disadvantage of the known methods for the implementation of AR on mobile systems
  • 1. Computer capacity requirements exceed the capabilities of mobile systems.
  • 2. Transmission of the video signal to the server and back requires a large amount of data and exceeds an acceptable round-trip time.
  • 3. Reducing the amount of data to be transferred by compressing the image also requires a lot of time and computing power.
  • 4. When the network is heavily used, this is restricted for additional functions, such as geometry data or communication with a remote expert, etc.
  • 5. Method, which obtained the position of the mobile device, for example, by network properties (mobile radio cell, etc.) are very inaccurate exactly.

In Wagner, D., Schmalstieg, D.; ”First Steps Towards Handheld Augmented Reality”, in Seventh IEEE International Symposium an Wearable Computers, ISWC 2003, Seiten 127–135, Oktober 2003, werden mobile AR-Geräte beschrieben, die in Kommunikation mit einem Server Daten austauschen, wobei das Problem von großen Datenmengen beim Übertragen von rohen Videodaten vermieden werden soll. Dazu wird im Zusammenhang mit 2b vorgeschlagen, das Tracking auf den Server auszulagern, wobei spezielle vorverarbeitete Videodaten zu diesem Zweck vom Handheld auf den Server übertragen werden. Eine Vorverarbeitung wird dadurch bewerkstelligt, dass von einem Farbbild auf ein Schwarz-Weißbild übergegangen wird und außerdem eine Kompression durchgeführt wird, so dass eine WLAN-Kommunikation durchgeführt werden kann. In einer ”Downstream- Kommunikation” werden anschließend entsprechende Pose-Informationen vom Server an den Handheld bereitgestellt.In Wagner, D., Schmalstieg, D .; Seventh IEEE International Symposium on Wearable Computers, ISWC 2003, pages 127-135, October 2003, describes mobile AR devices that exchange data in communication with a server, the problem being large Data should be avoided when transferring raw video data. This is related to 2 B proposed to outsource the tracking to the server, whereby special preprocessed video data is transferred from the handheld to the server for this purpose. Preprocessing is accomplished by transitioning from a color image to a black and white image and also performing compression so that WLAN communication can be performed. In a "downstream communication" corresponding pose information is then provided by the server to the handheld.

In Cruz, D. S. et al., ”Region of interest coding in JPEG2000 for interactive client/server applications” in: 1999 IEEE 3rd Workshop an Multimedia Signal Processing, Seiten 389–394, 1999 wird ein Ansatz beschrieben, welcher ein effizientes ”on-the-fly”-Dekodieren von interessierenden Bereichen in einem bereits kodierten Bild erlaubt, ohne einer Notwendigkeit für einen vollständigen Dekodierungs-/Kodierungsprozess. Dieser Ansatz ist insbesondere in interaktiven Client-/Server-Anwendungen von Vorteil, die durch schmalbandige Netzwerke miteinander verbunden sind, in welchen der Client den Server anfordern kann, die Übertragung der gewünschten Information effizienter bei geringen Verarbeitungskosten durchzuführen.In Cruz, DS et al., "Region of Interest Coding in JPEG 2000 for interactive client / server applications" in: 1999 IEEE 3rd Workshop on Multimedia Signal Processing, pp. 389-394, 1999, an approach is described which provides an efficient "on- the-fly "decoding of regions of interest in an already encoded image, without the need for a complete decoding / encoding process. This approach is particularly advantageous in interactive client / server applications interconnected by narrowband networks in which the client may request the server to perform the transmission of the desired information more efficiently at a lower processing cost.

Aufgabe der ErfindungObject of the invention

Der Erfindung liegt die Aufgabe zu Grunde, Augmented Reality oder andere Anwendungen auf mobilen Geräten zu ermöglichen, welche Position und oder Orientierung des Gerätes gegenüber realen Objekten benötigen. Zur Entlastung des mobilen Gerätes werden Aufgaben auf Server ausgelagert. Auf Server ausgelagerte Vorgänge sollen dabei die Beanspruchung des Übertragungssystems möglichst gering halten. Die Round-Trip-Time vom mobilen Gerät zum Server wird durch die Erfindung stark reduziert.The invention is based on the object of enabling augmented reality or other applications on mobile devices which require position and or orientation of the device in relation to real objects. To relieve the mobile device tasks are outsourced to servers. Processes outsourced to servers should minimize the load on the transmission system. The round trip time from the mobile device to the server is greatly reduced by the invention.

Beschreibung der Erfindung Description of the invention

Die zuvor hergeleitete und aus dem Stand der Technik hervorgehene Aufgabe wird erfindungsgemäß durch Verfahren gelöst, bei denen die Übertragung des gesamten Videobildes vermieden bzw. auf ein Minimum reduziert wird.The previously derived and resulting from the prior art task is inventively achieved by methods in which the transmission of the entire video image is avoided or reduced to a minimum.

Die Erfindung schafft Verfahren zum Bestimmen der Position und/oder der Orientierung mobiler Geräte bezüglich realer Geräte oder zum Bestimmen der Position und/oder der Orientierung realer Objekte bezüglich eines mobilen Geräts, wobei mittels einer dem mobilen Gerät zugeordneten Kamera ein das reale Objekt enthaltendes Bild aufgenommen wird und wobei durch Vergleich zwischen dem aufgenommenen Bild und hinterlegter Information über das reale Objekt das genannte Bestimmen erfolgt,
wobei die Verfahren die Schritte umfassen,
dass von einem Server, der von der mobilen Vorrichtung separiert ist, eine Messanweisung an das mobile Gerät gesendet wird;
dass von dem mobilen Gerät aufgrund der Messanweisung eine Messung in dem Bild vorgenommen wird;
und dass das Messergebnis von dem mobilen Gerät an den Server gesendet wird.
The invention provides methods for determining the position and / or orientation of mobile devices relative to real devices or for determining the position and / or orientation of real objects relative to a mobile device, wherein an image containing the real object is captured by a camera associated with the mobile device and wherein said determination is made by comparison between the captured image and stored information about the real object,
the methods comprising the steps of
that a metering instruction is sent to the mobile device from a server separate from the mobile device;
that the mobile device makes a measurement in the image based on the measurement instruction;
and that the measurement result is sent from the mobile device to the server.

Das reale Objekt kann ein Marker sein. Man kann aber auch ohne Marker arbeiten und statt dessen mit einem oder mehreren prägnanten, realen Objekten arbeiten, über die Information hinterlegt ist. Letzteres kann auch durch Initialisieren des Systems erfolgen.The real object can be a marker. But you can also work without markers and instead work with one or more succinct, real-life objects that store information. The latter can also be done by initializing the system.

Es ist möglich, pro Bild mehrere Messanweisungen nacheinander zu senden, mehrere Messungen nacheinander vorzunehmen, und mehrere Messergebnisse nacheinander zu senden. Ein typisches Beispiel hierfür wäre das Messen längs mehrerer Messlinien oder in mehreren Teil-Messflächen innerhalb des Bildes.It is possible to send several measurement instructions one after the other, to take several measurements in succession, and to send several measurement results in succession. A typical example of this would be the measurement along several measurement lines or in several partial measurement areas within the image.

Es ist möglich, zeitlich nacheinander mehrere Positions- und/oder Orientierungsbestimmungen durchzuführen. In diesem Fall liefert das Verfahren eine kontinuierliche oder quasi-kontinuierlich Positions- und/oder Orientierungsbestimmung.It is possible to carry out several position and / or orientation determinations in succession. In this case, the method provides a continuous or quasi-continuous position and / or orientation determination.

Die beigefügten Ansprüche 1 bis 31 beinhalten erfindungsgemäße Verfahren sowie bevorzugte Ausgestaltungen derselben. Die dort offenbarten Merkmale können auch bei den in den vier vorhergehenden Absätzen angesprochenen Verfahren verwirklicht werden.The appended claims 1 to 31 include methods of the invention and preferred embodiments thereof. The features disclosed therein can also be realized in the methods mentioned in the four preceding paragraphs.

Beim erfindungsgemäßen Verfahren teilt der Server dem Client mit, welche Messvorgänge im Videobild durchgeführt werden sollen. Messvorgänge werden durch den Einsatz intelligenter Algorithmen minimiert.In the method according to the invention, the server informs the client which measurement processes are to be carried out in the video image. Measurement processes are minimized by the use of intelligent algorithms.

zeigt einen vorteilhaften Aufbau zur Durchführung des erfindungsgemäßen Verfahrens. Eine Kamera (400-1) erstellt ein Videobild (100) der realen Umgebung, in der sich reale Objekte (50), vorteilhafterweise Marker, befinden. Auf dem mobilen Gerät befindet sich eine Komponente, der sogenannte Observer (400-2), welche das Kamerabild untersuchen kann. Über ein digitales Übertragungssystem (200), hier ein drahtloses Netzwerk, erhält das mobile Gerät (400), auch als Client bezeichnet, Messanweisungen (300) vom Estimator (500-1), welcher sich auf dem Server (500) befindet. Aufgrund der Messanweisungen nimmt der Observer Messungen vor und sendet die Messdaten (600) an den Estimator. Der Estimator errechnet mittels der Messdaten das aktuelle Trackingergebnis (700) und sendet dieses vorteilhafterweise an den Renderer (400-3) des mobilen Gerätes. Mittels des Trackingergebnisses kann der Renderer AR-Informationen lagegerecht darstellen. Vorteilhafterweise werden die AR-Informationen (800) mit dem Videobild vermischt und über ein Ausgabessystem (400-4) dem Anwender (1000) angezeigt. Vorteilhafterweise handelt es sich beim Ausgabessystem um ein kopfgetragenes Bildschirmsystem (Head Mounted Display). shows an advantageous structure for carrying out the method according to the invention. A camera ( 400-1 ) creates a video image ( 100 ) the real environment in which real objects ( 50 ), advantageously markers. On the mobile device is a component, the so-called Observer ( 400-2 ), which can examine the camera image. Via a digital transmission system ( 200 ), here a wireless network, receives the mobile device ( 400 ), also referred to as client, measuring instructions ( 300 ) from the estimator ( 500-1 ), which is located on the server ( 500 ) is located. Based on the measurement instructions, the observer makes measurements and sends the measurement data ( 600 ) to the estimator. The estimator uses the measurement data to calculate the current tracking result ( 700 ) and sends this advantageously to the renderer ( 400-3 ) of the mobile device. By means of the tracking result, the renderer can display AR information in the correct position. Advantageously, the AR information ( 800 ) is mixed with the video image and output via an output system ( 400-4 ) the user ( 1000 ) is displayed. Advantageously, the output system is a head-mounted screen system.

Der Estimator bestimmt Messanweisungen mit Hilfe eines Bewegungsmodells (500-2). Die Messbereiche werden durch Geometriedaten der realen Objekte eingeschränkt, welche aus einer Datenbank (500-3) stammen können. Die Berechnung von Messanweisungen und die Berechnung des Trackingergebnisses werden durch zusätzliche Sensoren unterstützt. Vorteilhafterweise sind dies Intertialsensoren (400-5), welche am Anzeigegerät des mobilen Geräts befestigt sind und Beschleunigungs- und/oder Geschwindigkeitsdaten (900-1) an den Estimator senden. Vorteilhafterweise ist dies ein Global Positioning System (400-6), welches am Anzeigegerät des mobilen Geräts befestigt ist und Positions- und/oder Beschleunigungs- und/oder Geschwindigkeitsdaten (900-2) an den Estimator sendet. Vorteilhafterweise wird die Berechnung von Messanweisungen und die Berechnung des Trackingergebnisses durch Informationen des Bereitstellers des Übertragungssystems unterstützt. Vorteilhafterweise sind dem Bereitsteller des Übertragungssystems (1100) Positionsinformationen (900-3) bekannt.The estimator determines measurement instructions using a motion model ( 500-2 ). The measuring ranges are limited by geometry data of the real objects, which are taken from a database ( 500-3 ). The calculation of measurement instructions and the calculation of the tracking result are supported by additional sensors. Advantageously, these are intertial sensors ( 400-5 ), which are attached to the display device of the mobile device and acceleration and / or speed data ( 900-1 ) to the estimator. Advantageously, this is a Global Positioning System ( 400-6 ), which is attached to the display device of the mobile device and position and / or acceleration and / or speed data ( 900-2 ) sends to the estimator. Advantageously, the calculation of measurement instructions and the calculation of the tracking result are supported by information from the provider of the transmission system. Advantageously, the provider of the transmission system ( 1100 ) Position information ( 900-3 ) known.

Die Messanweisungen (300) und damit die Messdaten (600) sind vorteilhafterweise sehr unterschiedlich und dem Zustand des Gesamtsystems angepasst. Zur Initialisierung kann es zum Beispiel nötig sein, ein vollständiges Bild, z. B. ein Digitalbild mit reduzierter Auflösung und/oder Farbtiefe oder ein Binärbild, zu übertragen. Nach der Initialisierung kann es ausreichen, Farbintensitäten einzelner Punkte im Bild zu übertragen.The measuring instructions ( 300 ) and thus the measured data ( 600 ) are advantageously very different and adapted to the state of the overall system. For example, to initialize it may be necessary to have a complete image, e.g. As a digital image with reduced resolution and / or color depth or a binary image to transfer. After initialization, it may be sufficient to transfer color intensities of individual dots in the image.

Vorteile und Anwendungen des VerfahrensAdvantages and applications of the method

Vorteile des beschriebenen Verfahrens zum Finden der Position und/oder der Orientierung mobiler Geräte bezüglich realer Objekte ist die signifikante Verringerung der Round-Trip-Time durch die variable Anforderung nur benötigter Messergebnisse durch den Server. Dieser Zusammenhang wird in qualitativ verdeutlicht. Während bei der Übertragung des Videobilds in 2 Richtungen konstant große Datenmengen anfallen, sind diese durch die ausgewählte Arbeit des Clients geringer, nach der Initialisierung sogar deutlich geringer.Advantages of the described method for finding the position and / or the orientation of mobile devices with respect to real objects is the significant reduction of the round-trip-time by the variable requirement of only required measurement results by the server. This connection is in qualitatively clarified. While the transfer of the video image in 2 directions constantly generates large amounts of data, these are lower by the selected work of the client, after initialization even much lower.

Mögliche Anwendungen des Verfahrens schließen insbesondere Anwendungen der Augmented Reality Technologie in den Bereichen Service und Wartung, Produktion sowie Anwendungen im mobilen Umfeld ein.Possible applications of the method include, in particular, applications of augmented reality technology in the areas of service and maintenance, production and applications in the mobile environment.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

5050
Reales ObjektReal object
100100
Videobildvideo image
200200
Übertragungssystemtransmission system
300300
Messanweisungenmeasuring instructions
400400
mobiles Gerätmobile device
400-1400-1
Kameracamera
400-2400-2
ObserverObserver
400-3400-3
Renderer (Grafiksystem)Renderer (graphics system)
400-4400-4
Ausgabesystemoutput system
400-5400-5
Inertialsensoreninertial sensors
400-6400-6
Global Positioning SystemGlobal Positioning System
400-7400-7
Datenspeicher für AR-InformationenData store for AR information
500500
Serverserver
500-1500-1
EstimatorEstimator
500-2500-2
Bewegungsmodellmovement model
500-3500-3
DatenbankDatabase
600600
Messdatenmeasurement data
700700
Trackingergebnistracking results
800800
AR-InformationenAR Information
900-1900-1
Daten des IntertialsensorsData of the Intertial Sensor
900-2900-2
Daten des Global Positioning SystemsData from the Global Positioning System
900-3900-3
Daten des Bereitstellers des ÜbertragungssystemsData of the provider of the transmission system
10001000
Anwenderuser
11001100
Bereitsteller des Übertragungssytems, vorteilhafterweise Netzwerk-ProviderProviders of Übertragungssytems, advantageously network providers

Claims (31)

Verfahren zum Finden der Position und/oder der Orientierung mobiler Geräte bezüglich realer Objekte, wobei – das mobile Gerät (400) eine Kamera (400-1) aufweist und sich auf dem mobilen Gerät eine Komponente befindet, als Observer (400-2) bezeichnet, welche ein Bild der Kamera untersuchen kann, und – über ein drahtloses Netzwerk (200) das mobile Gerät (400) Messanweisungen (300) von einem Estimator (500-1) erhält, welcher sich auf einem Server (500) befindet, – wobei aufgrund der Messanweisungen der Observer (400-2) Messungen vornimmt und Messdaten (600) an den Estimator sendet, wobei der Estimator mittels der Messdaten ein aktuelles Trackingergebnis (700) errechnet und dieses an ein Grafiksystem, als Renderer (400-3) bezeichnet, des mobilen Gerätes sendet, – wobei mittels des Trackingergebnisses der Renderer (400-3) Augmented Reality-Informationen lagegerecht darstellt, – wobei der Estimator (500-1) die Messanweisungen mit Hilfe eines Bewegungsmodells (500-2) bestimmt und die Messbereiche durch Geometriedaten von realen Objekten eingeschränkt werden, – wobei die Berechnung der Messanweisungen und die Berechnung des Trackingergebnisses durch zusätzliche Sensoren unterstützt werden.Method for finding the position and / or orientation of mobile devices with respect to real objects, wherein - the mobile device ( 400 ) a camera ( 400-1 ) and there is a component on the mobile device as Observer ( 400-2 ), which can examine an image of the camera, and - via a wireless network ( 200 ) the mobile device ( 400 ) Measurement instructions ( 300 ) from an estimator ( 500-1 ), which resides on a server ( 500 ) due to the measuring instructions of the Observer ( 400-2 ) Makes measurements and measurement data ( 600 ) to the estimator, whereby the estimator uses the measurement data to obtain a current tracking result ( 700 ) and this to a graphics system, as a renderer ( 400-3 ), the mobile device sends, - by means of the tracking result of the renderer ( 400-3 ) Represents augmented reality information according to the situation, - whereby the estimator ( 500-1 ) the measurement instructions using a motion model ( 500-2 ) and the measurement ranges are limited by geometry data from real objects, - whereby the calculation of the measurement instructions and the calculation of the tracking result are supported by additional sensors. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Berechnung eines Bildes der Augmented Reality-Informationen auf dem mobilen Gerät stattfindet und damit nur das Trackingergebnis vom Server auf das mobile Gerät übertragen werden muss.A method according to claim 1, characterized in that the calculation of an image of the augmented reality information takes place on the mobile device and thus only the tracking result has to be transmitted from the server to the mobile device. Verfahren zum Finden der Position und/oder der Orientierung einer Kamera, die einem mobilen Gerät zugeordnet ist, bezüglich realer Objekte, – wobei sich auf dem mobilen Gerät (400) eine Komponente befindet, als Observer (400-2) bezeichnet, welche ein Bild der Kamera (400-1) untersuchen kann, und – über ein drahtloses Netzwerk (200) das mobile Gerät (400) Messanweisungen (300) von einem Estimator (500-1) erhält, welcher sich auf einem Server (500) befindet, – wobei aufgrund der Messanweisungen der Observer (400-2) Messungen vornimmt und Messdaten (600) an den Estimator sendet, wobei der Estimator mittels der Messdaten ein aktuelles Trackingergebnis (700) errechnet und dieses an ein Grafiksystem, als Renderer (400-3) bezeichnet, des mobilen Gerätes sendet, – wobei mittels des Trackingergebnisses der Renderer (400-3) Augmented Reality-Informationen lagegerecht darstellt, – wobei der Estimator (500-1) die Messanweisungen mit Hilfe eines Bewegungsmodells (500-2) bestimmt und die Messbereiche durch Geometriedaten von realen Objekten eingeschränkt werden, – wobei die Berechnung der Messanweisungen und die Berechnung des Trackingergebnisses durch zusätzliche Sensoren unterstützt werden.A method for finding the position and / or orientation of a camera associated with a mobile device with respect to real objects, wherein - on the mobile device ( 400 ) a component is located as Observer ( 400-2 ), which is an image of the camera ( 400-1 ), and - via a wireless network ( 200 ) the mobile device ( 400 ) Measurement instructions ( 300 ) from an estimator ( 500-1 ), which resides on a server ( 500 ) due to the measuring instructions of the Observer ( 400-2 ) Makes measurements and measurement data ( 600 ) to the estimator, whereby the estimator uses the measurement data to obtain a current tracking result ( 700 ) and this to a graphics system, as a renderer ( 400-3 ), the mobile device sends, - by means of the tracking result of the renderer ( 400-3 ) Represents augmented reality information according to the situation, - whereby the estimator ( 500-1 ) the measurement instructions using a motion model ( 500-2 ) and the measurement ranges are limited by geometry data from real objects, - whereby the calculation of the measurement instructions and the calculation of the tracking result are supported by additional sensors. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Kommunikation zwischen mobilem Gerät und Server drahtlos erfolgt mit unterschiedlichen, jeweils an den Einsatzbereich angepassten Techniken, insbesondere mit Bluetooth für den Nahbereich und Wireless LANs bzw. GSM/GPRS/UMTS für den Fernbereich. Method according to one of claims 1 to 3, characterized in that the communication between the mobile device and server is wireless with different, each adapted to the field of application techniques, in particular with Bluetooth for the local area and wireless LANs or GSM / GPRS / UMTS for the remote area. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Messanweisungen und damit die vom mobilen Gerät an den Server gesendeten Messergebnisse in Form und Umfang variieren können.Method according to one of the preceding claims, characterized in that the measurement instructions and thus the measurement results sent by the mobile device to the server can vary in form and scope. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass die Messanweisungen Bildkoordinaten und die Messergebnisse einzelne Pixelintensitäten zu Bildkoordinaten darstellen.A method according to claim 1 or 3, characterized in that the measurement instructions represent image coordinates and the measurement results individual pixel intensities to image coordinates. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Geraden beliebiger Länge und die Messergebnisse Pixelintensitäten auf diesen Geraden darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent straight lines of arbitrary length and the measurement results represent pixel intensities on these straight lines. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Geraden beliebiger Länge und die Messergebnisse Punktkoordinaten darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent straight lines of arbitrary length and the measurement results represent point coordinates. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Geraden beliebiger Länge und die Messergebnisse Abstände darstellen.A method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions straight lines of any length and the measurement results represent distances. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Rechtecke beliebiger Fläche und die Messergebnisse Pixelintensitäten von Bildkoordinaten innerhalb dieser Rechtecke darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent rectangles of any area and the measurement results represent pixel intensities of image coordinates within these rectangles. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Rechtecke beliebiger Fläche und die Messergebnisse Punktkoordinaten darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent rectangles of any surface and the measurement results represent point coordinates. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Rechtecke beliebiger Fläche und die Messergebnisse Abstände darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent rectangles of any surface and the measurement results represent distances. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Freiformflächen und die Messergebnisse Pixelintensitäten von Bildkoordinaten innerhalb dieser Flächen darstellen.Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent free-form surfaces and the measurement results represent pixel intensities of image coordinates within these surfaces. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Freiformflächen und die Messergebnisse Punktkoordinaten darstellen,Method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions represent free-form surfaces and the measurement results represent point coordinates, Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass, in Bildkoordinaten ausgedrückt, die Messanweisungen Freiformflächen und die Messergebnisse Abstände darstellen.A method according to claim 1 or 3, characterized in that, expressed in image coordinates, the measurement instructions free-form surfaces and the measurement results represent distances. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen Geometriemodelle realer Objekte verwendet werden.Method according to claim 1 or 3, characterized in that geometry models of real objects are used to calculate the measurement instructions. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen Annahmen über die Position und Orientierung von realen Objekten relativ zur Kamera getroffen werden.A method according to claim 1 or 3, characterized in that for the calculation of the measurement statements assumptions about the position and orientation of real objects are made relative to the camera. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen mehrere Annahmen über die Position und Orientierung eines realen Objektes relativ zur Kamera getroffen werden und die Anzahl der Annahmen in Positions- und Orientierungsbereichen zunimmt, für die eine höhere Wahrscheinlichkeit angenommen wurde.A method according to claim 1 or 3, characterized in that for the calculation of the measurement instructions several assumptions about the position and orientation of a real object relative to the camera are taken and the number of assumptions in position and orientation areas increases, for which a higher probability was assumed. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen Annahmen über die Position und Orientierung von realen Objekten relativ zur Kamera mit Hilfe eines Bewegungsmodells gekoppelt an einen Kalman-Filter getroffen werden.A method according to claim 1 or 3, characterized in that for the calculation of the measurement statements assumptions about the position and orientation of real objects relative to the camera by means of a motion model are coupled to a Kalman filter. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass das Bewegungsmodell aufgrund der Trackingergebnisse zur Laufzeit angepasst wird.A method according to claim 1 or 3, characterized in that the movement model is adjusted due to the tracking results at runtime. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die Trackingergebnisse 2- oder 3-dimensionale Positionsinformationen und/oder 1-, 2- oder dreidimensionale Orientierungsinformationen und/oder Informationen über Kameraparameter sind.Method according to claim 1, 2 or 3, characterized in that the tracking results are 2- or 3-dimensional position information and / or 1-, 2- or 3-dimensional orientation information and / or information about camera parameters. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass der Estimator Annahmen zur Unsicherheit der letzten Trackingergebnisse trifft und in den Messanweisungen die Anzahl der zu untersuchenden Pixel mit steigender Unsicherheit zunimmt.A method according to claim 1 or 3, characterized in that the estimator makes assumptions about the uncertainty of the last tracking results and increases in the measurement instructions, the number of pixels to be examined with increasing uncertainty. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass gleichzeitig die Trackingergebnisse und neue Messanweisungen an das mobile Gerät übertragen werden. A method according to claim 1 or 3, characterized in that the same time the tracking results and new measurement instructions are transmitted to the mobile device. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen und/oder zur Berechnung des Trackingergebnisses Daten von Intertialsensoren zu Hilfe genommen werden.Method according to Claim 1 or 3, characterized in that data from intertial sensors are used to calculate the measurement instructions and / or to calculate the tracking result. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen und/oder zur Berechnung des Trackingergebnisses Positionsdaten des Bereitstellers des Übertragungssystems zu Hilfe genommen werden.Method according to claim 1 or 3, characterized in that position data of the provider of the transmission system are used to calculate the measurement instructions and / or to calculate the tracking result. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass zur Berechnung der Messanweisungen und/oder zur Berechnung des Trackingergebnisses Daten eines Global Positioning Systems zur Hilfe genommen werden.A method according to claim 1 or 3, characterized in that data of a Global Positioning System are used to calculate the measurement instructions and / or to calculate the tracking result. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass die Messanweisungen oder die Messergebnisse komprimiert werden.A method according to claim 1 or 3, characterized in that the measurement instructions or the measurement results are compressed. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Berechnung der Augmented Reality-Informationen auf dem Server geschieht, an das mobile Gerät übertragen wird und auf dem mobilen Gerät mit einem Videobild angereichert wird.A method according to claim 1, characterized in that the calculation of the augmented reality information is done on the server, is transmitted to the mobile device and enriched on the mobile device with a video image. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Berechnung der Augmented Reality-Informationen auf dem Server geschieht, an das mobile Gerät übertragen wird und mittels eines halbdurchlässigen Displays dargestellt wird.A method according to claim 1, characterized in that the calculation of the augmented reality information is done on the server, is transmitted to the mobile device and displayed by means of a semipermeable display. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass der Server aufgrund der Trackingergebnisse den Renderer des mobilen Geräts selbsttätig mit kontextabhängigen AR-Inhalten versorgt, wenn die vom Tracking benötigte Netzwerklast gering ist und aus den Trackingergebnissen hervorgeht, dass demnächst neue Inhalte benötigt werden.The method of claim 1, 2 or 3, characterized in that the server automatically supplies the renderer of the mobile device with context-dependent AR content due to the tracking results when the network load required by the tracking is low and the results show that new content is required soon become. Verfahren nach Anspruch 1 oder 3, dadurch gekennzeichnet, dass der Server, abhängig von der aktuellen, vom Tracking benötigten Kapazität des Übertragungsmediums, zusätzliche vom mobilen Gerät benötigte Daten puffert und flexibel überträgt.A method according to claim 1 or 3, characterized in that the server, depending on the current required by the tracking capacity of the transmission medium, buffers additional data required by the mobile device and flexibly transmits.
DE102004061842.9A 2003-12-22 2004-12-22 Tracking system for mobile applications Active DE102004061842B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102004061842.9A DE102004061842B4 (en) 2003-12-22 2004-12-22 Tracking system for mobile applications

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10360448 2003-12-22
DE10360448.0 2003-12-22
DE102004061842.9A DE102004061842B4 (en) 2003-12-22 2004-12-22 Tracking system for mobile applications

Publications (2)

Publication Number Publication Date
DE102004061842A1 DE102004061842A1 (en) 2005-07-14
DE102004061842B4 true DE102004061842B4 (en) 2017-03-02

Family

ID=34673018

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004061842.9A Active DE102004061842B4 (en) 2003-12-22 2004-12-22 Tracking system for mobile applications

Country Status (1)

Country Link
DE (1) DE102004061842B4 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005010030B4 (en) * 2005-03-04 2007-05-10 Siemens Ag Method for mobile communication, as well as mobile device and communication device
IL169934A (en) * 2005-07-27 2013-02-28 Rafael Advanced Defense Sys Real-time geographic information system and method
IL175835A0 (en) 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
DE102015215613A1 (en) 2015-08-17 2017-03-09 Volkswagen Aktiengesellschaft Method for operating an augmented reality system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19832974A1 (en) * 1998-07-22 2000-01-27 Siemens Ag Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data
WO2001088679A2 (en) * 2000-05-13 2001-11-22 Mathengine Plc Browser system and method of using it
DE10128015A1 (en) * 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
DE10041104C1 (en) * 2000-08-22 2002-03-07 Siemens Ag Device and method for communication between a mobile data processing device and a stationary data processing device
US20020069013A1 (en) * 2000-10-05 2002-06-06 Nassir Navab Method and system for computer assisted localization, site navigation, and data navigation
WO2003095050A2 (en) * 2002-05-13 2003-11-20 Consolidated Global Fun Unlimited, Llc Method and system for interacting with simulated phenomena

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19832974A1 (en) * 1998-07-22 2000-01-27 Siemens Ag Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data
WO2001088679A2 (en) * 2000-05-13 2001-11-22 Mathengine Plc Browser system and method of using it
DE10128015A1 (en) * 2000-06-13 2001-12-20 Volkswagen Ag Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan
DE10041104C1 (en) * 2000-08-22 2002-03-07 Siemens Ag Device and method for communication between a mobile data processing device and a stationary data processing device
US20020069013A1 (en) * 2000-10-05 2002-06-06 Nassir Navab Method and system for computer assisted localization, site navigation, and data navigation
WO2003095050A2 (en) * 2002-05-13 2003-11-20 Consolidated Global Fun Unlimited, Llc Method and system for interacting with simulated phenomena

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Cruz, D.S.; Ebrahimi, T.; Larsson, M.; Askelof, J.; Cristopoulos, C.; , "Region of interest coding in JPEG2000 for interactive client/server applications," IN:, 1999 IEEE 3rd Workshop on Multimedia Signal Processing, S.389-394, 1999. *
Wagner,D., Schmalstieg,D., "First steps towards handheld augmented reality". In: Seventh IEEE Internat. Symp. on Wearable Computers, ISWC 2003, S. 127-135, Oct. 2003 *

Also Published As

Publication number Publication date
DE102004061842A1 (en) 2005-07-14

Similar Documents

Publication Publication Date Title
CN102214000B (en) Hybrid registration method and system for target objects of mobile augmented reality (MAR) system
DE112018004878T5 (en) POINT CLOUD GEOMETRY COMPRESSION
CN108230437B (en) Scene reconstruction method and apparatus, electronic device, program, and medium
US20080074494A1 (en) Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods
EP1770607B1 (en) System and method for displaying user information, in particular of augmented reality information, using tracking information stored in RFID data storage means
CN103649999B (en) For determining the content-adaptive system of light stream, method and apparatus
DE60213526T2 (en) Method and system for improving situational awareness of command control units
DE112018004395T5 (en) VIRTUAL ACCESS TO AN ACCESS-LIMITED OBJECT
US20070076090A1 (en) Device for generating three dimensional surface models of moving objects
CN107291879A (en) The method for visualizing of three-dimensional environment map in a kind of virtual reality system
DE102008024462A1 (en) Interactive imaging system, interactive device and method of operation thereof
DE112016004079T5 (en) Sensor device, sensor system and information processing device
DE102018209377A1 (en) A method of presenting AR / VR content on a mobile terminal and mobile terminal presenting AR / VR content
DE102015115786A1 (en) Doppler-based segmentation and optical flow in radar images
Jin et al. Practical speed measurement for an intelligent vehicle based on double radon transform in urban traffic scenarios
CN117197388A (en) Live-action three-dimensional virtual reality scene construction method and system based on generation of antagonistic neural network and oblique photography
JP6521352B2 (en) Information presentation system and terminal
DE102004061842B4 (en) Tracking system for mobile applications
EP2528042A1 (en) Method and device for the re-meshing of 3D polygon models
DE102004061841B4 (en) Markerless tracking system for augmented reality applications
DE102015115789A1 (en) Doppler-based segmentation and optical flow in radar images
DE102020100230A1 (en) RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS
EP3711392B1 (en) Method and device for position determination
WO2020039897A1 (en) Station monitoring system and station monitoring method
EP3543901A2 (en) Device and method for robust determination of the position, orientation, identity and selected status information of objects

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: METAIO GMBH, 85748 GARCHING, DE

R016 Response to examination communication
R082 Change of representative

Representative=s name: KLUNKER, SCHMITT-NILSON, HIRSCH, DE

R081 Change of applicant/patentee

Owner name: METAIO GMBH, DE

Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE

Effective date: 20140226

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE

Effective date: 20140226

R082 Change of representative

Representative=s name: KLUNKER, SCHMITT-NILSON, HIRSCH, DE

Effective date: 20140226

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

Effective date: 20140226

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

Effective date: 20140226

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R082 Change of representative

Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: APPLE INC., CUPERTINO, US

Free format text: FORMER OWNER: METAIO GMBH, 80335 MUENCHEN, DE

R082 Change of representative

Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE