DE102004061842B4 - Tracking system for mobile applications - Google Patents
Tracking system for mobile applications Download PDFInfo
- Publication number
- DE102004061842B4 DE102004061842B4 DE102004061842.9A DE102004061842A DE102004061842B4 DE 102004061842 B4 DE102004061842 B4 DE 102004061842B4 DE 102004061842 A DE102004061842 A DE 102004061842A DE 102004061842 B4 DE102004061842 B4 DE 102004061842B4
- Authority
- DE
- Germany
- Prior art keywords
- measurement
- mobile device
- instructions
- estimator
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/21—Intermediate information storage
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
Verfahren zum Finden der Position und/oder der Orientierung mobiler Geräte bezüglich realer Objekte, wobei – das mobile Gerät (400) eine Kamera (400-1) aufweist und sich auf dem mobilen Gerät eine Komponente befindet, als Observer (400-2) bezeichnet, welche ein Bild der Kamera untersuchen kann, und – über ein drahtloses Netzwerk (200) das mobile Gerät (400) Messanweisungen (300) von einem Estimator (500-1) erhält, welcher sich auf einem Server (500) befindet, – wobei aufgrund der Messanweisungen der Observer (400-2) Messungen vornimmt und Messdaten (600) an den Estimator sendet, wobei der Estimator mittels der Messdaten ein aktuelles Trackingergebnis (700) errechnet und dieses an ein Grafiksystem, als Renderer (400-3) bezeichnet, des mobilen Gerätes sendet, – wobei mittels des Trackingergebnisses der Renderer (400-3) Augmented Reality-Informationen lagegerecht darstellt, – wobei der Estimator (500-1) die Messanweisungen mit Hilfe eines Bewegungsmodells (500-2) bestimmt und die Messbereiche durch Geometriedaten von realen Objekten eingeschränkt werden, – wobei die Berechnung der Messanweisungen und die Berechnung des Trackingergebnisses durch zusätzliche Sensoren unterstützt werden.A method for finding the location and / or orientation of mobile devices with respect to real objects, wherein - the mobile device (400) comprises a camera (400-1) and a component is located on the mobile device, called Observer (400-2) which can examine an image of the camera, and - via a wireless network (200), the mobile device (400) receives measurement instructions (300) from an estimator (500-1) located on a server (500), - on the basis of the measuring instructions of Observer (400-2) makes measurements and sends measurement data (600) to the estimator, wherein the estimator uses the measurement data to calculate a current tracking result (700) and sends this to a graphics system, called renderer (400-3), of the mobile device sends, - by means of the tracking result of the renderer (400-3) represents augmented reality information in line, - wherein the estimator (500-1) determine the measurement instructions using a movement model (500-2) t and the measuring ranges are limited by geometric data from real objects, - whereby the calculation of the measuring instructions and the calculation of the tracking result are supported by additional sensors.
Description
KurzzusammenfassungQuick Facts
Optisches Tracking auf mobilen Geräten ist mit dem aktuellen Stand der Technik nur unzureichend gelöst. Mobile Geräte besitzen begrenzte Rechenkapazitäten, daher wurde versucht das Videobild per Netzwerk zu übertragen, auf einem Server das Tracking durchzuführen und das angereicherte Bild zurückzuschicken. Die großen Datenmengen für die bidirektionale Übertragung des Videobildes führen allerdings zu unzureichenden Ergebnissen bezüglich der Round-Trip-Time.Optical tracking on mobile devices is not adequately solved with the current state of the art. Mobile devices have limited computing capacity, so they tried to transfer the video image over the network, to perform tracking on a server and to send back the enriched image. The large amounts of data for bidirectional transmission of the video image, however, lead to insufficient results in terms of the round-trip time.
Diese Erfindung zeigt einen Weg auf, das Tracking auf dem Server durchzuführen, ohne ständig das vollständige Videobild zu übertragen. Während der Server die komplexen Trackingvorgänge durchführt, arbeitet der Client einfache Messvorgänge nach Vorgaben des Servers ab. Diese Messvorgänge benötigen geringe Rechnerkapazität und reduzieren die Größe der versendeten Datenpakete enorm.This invention shows a way to perform tracking on the server without constantly transmitting the full video image. While the server performs the complex tracking operations, the client performs simple measurements based on server specifications. These measurements require low computer capacity and reduce the size of the sent data packets enormously.
Stand der TechnikState of the art
Aus dem Stand der Technik sind sogenannte Augmented Reality Systeme bekannt. Diese erlauben die Überlagerung von computergenerierten, virtuellen Informationen mit Seheindrücken der realen Umgebung. Hierzu werden die Seheindrücke der realen Welt, vorzugsweise mit auf dem Kopf getragenen halbdurchlässigen Datenbrillen, mit virtuellen Informationen gemischt. Die Einblendung der virtuellen Informationen bzw. Objekte kann dabei kontextabhängig, d. h. angepasst und abgeleitet von der jeweilig betrachteten realen Umgebung ausgeführt sein. Als Informationen können grundsätzlich jede Art von Daten wie Texte, Abbildungen etc. verwendet werden.So-called augmented reality systems are known from the prior art. These allow the overlay of computer-generated, virtual information with visual impressions of the real environment. For this purpose, the visual impressions of the real world, preferably with semipermeable data glasses worn on the head, are mixed with virtual information. The display of the virtual information or objects can be context-dependent, d. H. adapted and derived from the respective considered real environment be executed. In principle, any kind of data such as texts, images etc. can be used as information.
Dokumentierte Anwendungen der Technologie sehen einen Einsatz in der Produktion, im Service und in der Entwicklung komplexer Produkte vor. Auch ist der Einsatz der Technologie aus der Produktion von Flugzeugen bekannt. Nach der Druckschrift
Andere Einsatzmöglichkeiten sind zum Beispiel die AR-Dokumentation von Konsumerprodukten.Other uses include, for example, the AR documentation of consumer products.
Zusätzlich sind aus dem Stand der Technik optische Positionserfassungssysteme bekannt, welche die Position und oder Orientierung von Objekten in einem Vermessungsraum bestimmen. Diese sogenannten Tracking-Systeme erlauben beispielsweise die Erfassung von bis zu sechs Freiheitsgraden eines Objektes. Zum Einsatz kommen Systeme mit unterschiedlichsten physikalischen Wirkprinzipien. Gängig sind sogenannte optische Tracking-Systeme, die durch verschiedene Verfahren der computergestützten Bildverarbeitung die Position von im Vermessungsraum befindlichen Objekten und/oder die Position der Kamera über die Erkennung der Objekte bestimmen.In addition, prior art optical position sensing systems are known which determine the position and or orientation of objects in a survey space. These so-called tracking systems allow, for example, the detection of up to six degrees of freedom of an object. Systems with different physical principles of action are used. Commonly used are so-called optical tracking systems that determine the position of objects located in the survey room and / or the position of the camera via the detection of the objects by various methods of computer-aided image processing.
Optische Tracking-Systeme benötigen allerdings für das Erreichen von akzeptablen Geschwindigkeiten (mehr als 5 Bilder pro Sekunde) relativ viel Rechnerkapazität. Dies ist bei mobilen Geräten oft nicht gegeben. Eine mögliche Lösung dieses Problems ist die Auslagerung der Tracking-Berechnungen und der Anreicherung des Videobildes auf einen leistungsstarken Server. Ansätze dazu sind ebenfalls aus dem Stand der Technik bekannt.However, optical tracking systems require relatively high computing capacity to achieve acceptable speeds (more than 5 frames per second). This is often not the case with mobile devices. One possible solution to this problem is to outsource the tracking calculations and enrich the video image to a powerful server. Approaches to this are likewise known from the prior art.
Nach dem Stand der Technik unterscheidet man zwischen sogenannten markerbasierten und sogenannten markerlosen optischen Trackingsystemen. Beim Einsatz zusätzlicher Sensoren, zum Beispiel Intertialsensoren, spricht man von sogenannnten hybriden Trackingsystemen. Die Erfindung ist für jegliche Verfahren von Nutzen.According to the prior art, a distinction is made between so-called marker-based and so-called markerless optical tracking systems. When using additional sensors, for example, intertial sensors, so-called hybrid tracking systems are used. The invention is useful for any process.
Da die freie Suche nach Objekten mittels heute verfügbarer Rechenleistung nicht in ausreichender Geschwindigkeit möglich ist, werden vereinfachende Annahmen getroffen.Since the free search for objects is not possible with sufficient speed thanks to today's available computing power, simplifying assumptions are made.
Eine Möglichkeit zur Vereinfachung der Komplexität, ist die Ausstattung des Trackingraums mit kontrastreichen, leicht zu erkennenden Markierungen, im Folgenden als Marker bezeichnet. Dieser Ansatz hat allerdings den Nachteil, dass der Trackingraum ausgestattet werden muss und das Tracking nur im ausgestatteten Bereich möglich ist. Optische Trackingverfahren mit dieser Methode werden allgemein als markerbasierte Trackingverfahren bezeichnet.One way to simplify the complexity is to equip the tracking room with high-contrast, easily recognizable markers, hereafter referred to as markers. However, this approach has the disadvantage that the tracking room must be equipped and the tracking is possible only in the equipped area. Optical tracking methods using this method are generally referred to as marker-based tracking methods.
Eine andere Möglichkeit zur Vereinfachung der Komplexität ist der Einsatz von Modellen, zum Beispiel statistischen Bewegungsmodellen und/oder zusätzlichen Sensoren, zum Beispiel Beschleunigungssensoren, welche den Suchraum der Bildverarbeitungsalgorithmen einschränken. Obwohl dieser Ansatz die Komplexität vereinfacht ohne dass eine Ausstattung des Raumes nötig ist, kann er nicht bei der Initialisierung behilflich sein. Initialisierung bedeutet in diesem Zusammenhang die Festlegung des inneren Zustands des Systems, so dass der Trackingvorgang erfolgreich und in ausreichend kurzer Zeit durchgeführt werden kann. Das System muss zuerst in einen gültigen Anfangszustand versetzt werden. Dieser Anfangszustand umfasst die ungefähre Position und Orientierung der Realität zur Kamera und vorteilhafterweise Angaben zur aktuellen Bewegung der Kamera.Another possibility for simplifying the complexity is the use of models, for example statistical movement models and / or additional sensors, for example acceleration sensors, which limit the search space of the image processing algorithms. Although this approach simplifies complexity without the need for room equipment, it can not help with initialization. Initialization in this context means the determination of the internal state of the system, so that the tracking process can be carried out successfully and in a sufficiently short time. The system must first be set to a valid initial state. This initial state includes the approximate position and orientation of the reality to the camera and advantageously information about the current movement of the camera.
Systeme, welche auf spezielle Markierungen (Marker) im Raum nicht angewiesen sind, sind aus folgenden Druckschriften bekannt und werden im folgenden als markerlose Tracking-Systeme bezeichnet:
Behringer, R.; Park, J.; Sundareswaran, V.: Model-Based Visual Tracking for Outdoor Augmented Reality Applications. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277
Genc, Y; Riedel, S.; Souvannavong, F.; Akinlar, C.; Navab, N.: Marker-less Tracking for AR: A Learning-Based Approach. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 295
Kar Wee Chia, Adrian David Cheok, Simon J. D. Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium an Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, S. 277.Systems which do not rely on special markers in space are known from the following documents and are referred to below as markerless tracking systems:
Behringer, R .; Park, J .; Sundareswaran, V .: Model-Based Visual Tracking for Outdoor Augmented Reality Applications. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 277
Genc, Y; Riedel, S .; Souvannavong, F .; Akinlar, C .; Navab, N .: Marker-less Tracking for AR: A Learning-Based Approach. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 295
KarDe Chia, Adrian David Cheok, Simon JD Prince: Online 6 DOF Augmented Reality Registration from Natural Features. In: International Symposium on Mixed and Augmented Reality (ISMAR'02). Darmstadt 2002, p. 277.
Eingangsinformation des Systems ist ein zweidimensionales Feld von Rot-, Grün- und Blauintensitäten im Kamerabild. Zusätzlich können Beschleunigungsdaten von zusätzlichen Sensoren eingelesen werden. Ausgangsdaten des Systems sind die Position und/oder vorteilhaftereweise die Orientierung von einem oder mehreren Objekten relativ zur Kamera. Die Elemente der Realität können dann beispielsweise ein Koordinatensystem für Augmented Reality-Informationen aufspannen. Position und Orientierung können vorteilhafterweise durch eine Transformationsmatrix beschrieben werden. Vorteilhafterweise sind Position und Orientierung die Ausgangsdaten des Systems. Vorteilhafterweise können ebenfalls Kalibrierungsdaten von Sensoren Ausgangsdaten sein. Vorteilhafterweise können ebenfalls Modelldaten der Umgebung Ausgangsdaten sein. Die Erfindung bezieht sich aber ebenfalls auf Systeme, bei denen nur Position (ein-, zwei- oder dreidimensional) oder nur Orientierung (ein-, zwei- oder dreidimensional) oder jegliche Kombination der Anzahl der Dimensionen, die Ausgangsdaten darstellen.Input information of the system is a two-dimensional field of red, green and blue intensities in the camera image. In addition, acceleration data can be read in by additional sensors. The output data of the system is the position and / or advantageously the orientation of one or more objects relative to the camera. The elements of reality can then, for example, span a coordinate system for augmented reality information. Position and orientation can advantageously be described by a transformation matrix. Advantageously, position and orientation are the output data of the system. Advantageously, calibration data from sensors may also be output data. Advantageously, model data of the environment may also be output data. However, the invention also relates to systems in which only position (one, two or three dimensional) or only orientation (one, two or three dimensional) or any combination of the number of dimensions represent the output data.
Nachteiledisadvantage
Nachteilig an den bekannten Verfahren zur Umsetzung von AR auf mobilen Systemen ist
- 1. Anforderungen an Rechnerkapazität übersteigen die Möglichkeiten mobiler Systeme.
- 2. Übertragung des Videosignals zum Server und zurück erfordert eine große Datenmenge und übersteigt eine akzeptable Round-Trip-Time.
- 3. Verringerung der zu übertragenden Datenmenge durch Komprimierung des Bildes erfordert ebenfalls viel Zeit und Rechenleistung.
- 4. Bei hoher Auslastung des Netzwerks wird dies für zusätzliche Funktionen, wie Geometriedaten oder die Kommunikation mit einem entfernten Experten, etc. eingeschränkt.
- 5. Verfahren, welche die Position des mobilen Gerätes zum Beispiel durch Netzwerkeigenschaften (Mobilfunkzelle, etc. ) erhalten sind sehr ungenau genau.
- 1. Computer capacity requirements exceed the capabilities of mobile systems.
- 2. Transmission of the video signal to the server and back requires a large amount of data and exceeds an acceptable round-trip time.
- 3. Reducing the amount of data to be transferred by compressing the image also requires a lot of time and computing power.
- 4. When the network is heavily used, this is restricted for additional functions, such as geometry data or communication with a remote expert, etc.
- 5. Method, which obtained the position of the mobile device, for example, by network properties (mobile radio cell, etc.) are very inaccurate exactly.
In Wagner, D., Schmalstieg, D.; ”First Steps Towards Handheld Augmented Reality”, in Seventh IEEE International Symposium an Wearable Computers, ISWC 2003, Seiten 127–135, Oktober 2003, werden mobile AR-Geräte beschrieben, die in Kommunikation mit einem Server Daten austauschen, wobei das Problem von großen Datenmengen beim Übertragen von rohen Videodaten vermieden werden soll. Dazu wird im Zusammenhang mit
In Cruz, D. S. et al., ”Region of interest coding in JPEG2000 for interactive client/server applications” in: 1999 IEEE 3rd Workshop an Multimedia Signal Processing, Seiten 389–394, 1999 wird ein Ansatz beschrieben, welcher ein effizientes ”on-the-fly”-Dekodieren von interessierenden Bereichen in einem bereits kodierten Bild erlaubt, ohne einer Notwendigkeit für einen vollständigen Dekodierungs-/Kodierungsprozess. Dieser Ansatz ist insbesondere in interaktiven Client-/Server-Anwendungen von Vorteil, die durch schmalbandige Netzwerke miteinander verbunden sind, in welchen der Client den Server anfordern kann, die Übertragung der gewünschten Information effizienter bei geringen Verarbeitungskosten durchzuführen.In Cruz, DS et al., "Region of Interest Coding in JPEG 2000 for interactive client / server applications" in: 1999 IEEE 3rd Workshop on Multimedia Signal Processing, pp. 389-394, 1999, an approach is described which provides an efficient "on- the-fly "decoding of regions of interest in an already encoded image, without the need for a complete decoding / encoding process. This approach is particularly advantageous in interactive client / server applications interconnected by narrowband networks in which the client may request the server to perform the transmission of the desired information more efficiently at a lower processing cost.
Aufgabe der ErfindungObject of the invention
Der Erfindung liegt die Aufgabe zu Grunde, Augmented Reality oder andere Anwendungen auf mobilen Geräten zu ermöglichen, welche Position und oder Orientierung des Gerätes gegenüber realen Objekten benötigen. Zur Entlastung des mobilen Gerätes werden Aufgaben auf Server ausgelagert. Auf Server ausgelagerte Vorgänge sollen dabei die Beanspruchung des Übertragungssystems möglichst gering halten. Die Round-Trip-Time vom mobilen Gerät zum Server wird durch die Erfindung stark reduziert.The invention is based on the object of enabling augmented reality or other applications on mobile devices which require position and or orientation of the device in relation to real objects. To relieve the mobile device tasks are outsourced to servers. Processes outsourced to servers should minimize the load on the transmission system. The round trip time from the mobile device to the server is greatly reduced by the invention.
Beschreibung der Erfindung Description of the invention
Die zuvor hergeleitete und aus dem Stand der Technik hervorgehene Aufgabe wird erfindungsgemäß durch Verfahren gelöst, bei denen die Übertragung des gesamten Videobildes vermieden bzw. auf ein Minimum reduziert wird.The previously derived and resulting from the prior art task is inventively achieved by methods in which the transmission of the entire video image is avoided or reduced to a minimum.
Die Erfindung schafft Verfahren zum Bestimmen der Position und/oder der Orientierung mobiler Geräte bezüglich realer Geräte oder zum Bestimmen der Position und/oder der Orientierung realer Objekte bezüglich eines mobilen Geräts, wobei mittels einer dem mobilen Gerät zugeordneten Kamera ein das reale Objekt enthaltendes Bild aufgenommen wird und wobei durch Vergleich zwischen dem aufgenommenen Bild und hinterlegter Information über das reale Objekt das genannte Bestimmen erfolgt,
wobei die Verfahren die Schritte umfassen,
dass von einem Server, der von der mobilen Vorrichtung separiert ist, eine Messanweisung an das mobile Gerät gesendet wird;
dass von dem mobilen Gerät aufgrund der Messanweisung eine Messung in dem Bild vorgenommen wird;
und dass das Messergebnis von dem mobilen Gerät an den Server gesendet wird.The invention provides methods for determining the position and / or orientation of mobile devices relative to real devices or for determining the position and / or orientation of real objects relative to a mobile device, wherein an image containing the real object is captured by a camera associated with the mobile device and wherein said determination is made by comparison between the captured image and stored information about the real object,
the methods comprising the steps of
that a metering instruction is sent to the mobile device from a server separate from the mobile device;
that the mobile device makes a measurement in the image based on the measurement instruction;
and that the measurement result is sent from the mobile device to the server.
Das reale Objekt kann ein Marker sein. Man kann aber auch ohne Marker arbeiten und statt dessen mit einem oder mehreren prägnanten, realen Objekten arbeiten, über die Information hinterlegt ist. Letzteres kann auch durch Initialisieren des Systems erfolgen.The real object can be a marker. But you can also work without markers and instead work with one or more succinct, real-life objects that store information. The latter can also be done by initializing the system.
Es ist möglich, pro Bild mehrere Messanweisungen nacheinander zu senden, mehrere Messungen nacheinander vorzunehmen, und mehrere Messergebnisse nacheinander zu senden. Ein typisches Beispiel hierfür wäre das Messen längs mehrerer Messlinien oder in mehreren Teil-Messflächen innerhalb des Bildes.It is possible to send several measurement instructions one after the other, to take several measurements in succession, and to send several measurement results in succession. A typical example of this would be the measurement along several measurement lines or in several partial measurement areas within the image.
Es ist möglich, zeitlich nacheinander mehrere Positions- und/oder Orientierungsbestimmungen durchzuführen. In diesem Fall liefert das Verfahren eine kontinuierliche oder quasi-kontinuierlich Positions- und/oder Orientierungsbestimmung.It is possible to carry out several position and / or orientation determinations in succession. In this case, the method provides a continuous or quasi-continuous position and / or orientation determination.
Die beigefügten Ansprüche 1 bis 31 beinhalten erfindungsgemäße Verfahren sowie bevorzugte Ausgestaltungen derselben. Die dort offenbarten Merkmale können auch bei den in den vier vorhergehenden Absätzen angesprochenen Verfahren verwirklicht werden.The appended claims 1 to 31 include methods of the invention and preferred embodiments thereof. The features disclosed therein can also be realized in the methods mentioned in the four preceding paragraphs.
Beim erfindungsgemäßen Verfahren teilt der Server dem Client mit, welche Messvorgänge im Videobild durchgeführt werden sollen. Messvorgänge werden durch den Einsatz intelligenter Algorithmen minimiert.In the method according to the invention, the server informs the client which measurement processes are to be carried out in the video image. Measurement processes are minimized by the use of intelligent algorithms.
Der Estimator bestimmt Messanweisungen mit Hilfe eines Bewegungsmodells (
Die Messanweisungen (
Vorteile und Anwendungen des VerfahrensAdvantages and applications of the method
Vorteile des beschriebenen Verfahrens zum Finden der Position und/oder der Orientierung mobiler Geräte bezüglich realer Objekte ist die signifikante Verringerung der Round-Trip-Time durch die variable Anforderung nur benötigter Messergebnisse durch den Server. Dieser Zusammenhang wird in
Mögliche Anwendungen des Verfahrens schließen insbesondere Anwendungen der Augmented Reality Technologie in den Bereichen Service und Wartung, Produktion sowie Anwendungen im mobilen Umfeld ein.Possible applications of the method include, in particular, applications of augmented reality technology in the areas of service and maintenance, production and applications in the mobile environment.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 5050
- Reales ObjektReal object
- 100100
- Videobildvideo image
- 200200
- Übertragungssystemtransmission system
- 300300
- Messanweisungenmeasuring instructions
- 400400
- mobiles Gerätmobile device
- 400-1400-1
- Kameracamera
- 400-2400-2
- ObserverObserver
- 400-3400-3
- Renderer (Grafiksystem)Renderer (graphics system)
- 400-4400-4
- Ausgabesystemoutput system
- 400-5400-5
- Inertialsensoreninertial sensors
- 400-6400-6
- Global Positioning SystemGlobal Positioning System
- 400-7400-7
- Datenspeicher für AR-InformationenData store for AR information
- 500500
- Serverserver
- 500-1500-1
- EstimatorEstimator
- 500-2500-2
- Bewegungsmodellmovement model
- 500-3500-3
- DatenbankDatabase
- 600600
- Messdatenmeasurement data
- 700700
- Trackingergebnistracking results
- 800800
- AR-InformationenAR Information
- 900-1900-1
- Daten des IntertialsensorsData of the Intertial Sensor
- 900-2900-2
- Daten des Global Positioning SystemsData from the Global Positioning System
- 900-3900-3
- Daten des Bereitstellers des ÜbertragungssystemsData of the provider of the transmission system
- 10001000
- Anwenderuser
- 11001100
- Bereitsteller des Übertragungssytems, vorteilhafterweise Netzwerk-ProviderProviders of Übertragungssytems, advantageously network providers
Claims (31)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102004061842.9A DE102004061842B4 (en) | 2003-12-22 | 2004-12-22 | Tracking system for mobile applications |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10360448 | 2003-12-22 | ||
DE10360448.0 | 2003-12-22 | ||
DE102004061842.9A DE102004061842B4 (en) | 2003-12-22 | 2004-12-22 | Tracking system for mobile applications |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102004061842A1 DE102004061842A1 (en) | 2005-07-14 |
DE102004061842B4 true DE102004061842B4 (en) | 2017-03-02 |
Family
ID=34673018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102004061842.9A Active DE102004061842B4 (en) | 2003-12-22 | 2004-12-22 | Tracking system for mobile applications |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102004061842B4 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005010030B4 (en) * | 2005-03-04 | 2007-05-10 | Siemens Ag | Method for mobile communication, as well as mobile device and communication device |
IL169934A (en) * | 2005-07-27 | 2013-02-28 | Rafael Advanced Defense Sys | Real-time geographic information system and method |
IL175835A0 (en) | 2006-05-22 | 2007-07-04 | Rafael Armament Dev Authority | Methods and systems for communicating and displaying points-of-interest |
DE102015215613A1 (en) | 2015-08-17 | 2017-03-09 | Volkswagen Aktiengesellschaft | Method for operating an augmented reality system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19832974A1 (en) * | 1998-07-22 | 2000-01-27 | Siemens Ag | Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data |
WO2001088679A2 (en) * | 2000-05-13 | 2001-11-22 | Mathengine Plc | Browser system and method of using it |
DE10128015A1 (en) * | 2000-06-13 | 2001-12-20 | Volkswagen Ag | Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan |
DE10041104C1 (en) * | 2000-08-22 | 2002-03-07 | Siemens Ag | Device and method for communication between a mobile data processing device and a stationary data processing device |
US20020069013A1 (en) * | 2000-10-05 | 2002-06-06 | Nassir Navab | Method and system for computer assisted localization, site navigation, and data navigation |
WO2003095050A2 (en) * | 2002-05-13 | 2003-11-20 | Consolidated Global Fun Unlimited, Llc | Method and system for interacting with simulated phenomena |
-
2004
- 2004-12-22 DE DE102004061842.9A patent/DE102004061842B4/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19832974A1 (en) * | 1998-07-22 | 2000-01-27 | Siemens Ag | Arrangement for generating virtual industrial system model compares system component information with real system image data to identify components in image data |
WO2001088679A2 (en) * | 2000-05-13 | 2001-11-22 | Mathengine Plc | Browser system and method of using it |
DE10128015A1 (en) * | 2000-06-13 | 2001-12-20 | Volkswagen Ag | Use of an augmented reality system for improving software based virtual planning of an altered production line for use in manufacturing vehicle components, which allows the virtual plan to be overlaid on the existing plan |
DE10041104C1 (en) * | 2000-08-22 | 2002-03-07 | Siemens Ag | Device and method for communication between a mobile data processing device and a stationary data processing device |
US20020069013A1 (en) * | 2000-10-05 | 2002-06-06 | Nassir Navab | Method and system for computer assisted localization, site navigation, and data navigation |
WO2003095050A2 (en) * | 2002-05-13 | 2003-11-20 | Consolidated Global Fun Unlimited, Llc | Method and system for interacting with simulated phenomena |
Non-Patent Citations (2)
Title |
---|
Cruz, D.S.; Ebrahimi, T.; Larsson, M.; Askelof, J.; Cristopoulos, C.; , "Region of interest coding in JPEG2000 for interactive client/server applications," IN:, 1999 IEEE 3rd Workshop on Multimedia Signal Processing, S.389-394, 1999. * |
Wagner,D., Schmalstieg,D., "First steps towards handheld augmented reality". In: Seventh IEEE Internat. Symp. on Wearable Computers, ISWC 2003, S. 127-135, Oct. 2003 * |
Also Published As
Publication number | Publication date |
---|---|
DE102004061842A1 (en) | 2005-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102214000B (en) | Hybrid registration method and system for target objects of mobile augmented reality (MAR) system | |
DE112018004878T5 (en) | POINT CLOUD GEOMETRY COMPRESSION | |
CN108230437B (en) | Scene reconstruction method and apparatus, electronic device, program, and medium | |
US20080074494A1 (en) | Video Surveillance System Providing Tracking of a Moving Object in a Geospatial Model and Related Methods | |
EP1770607B1 (en) | System and method for displaying user information, in particular of augmented reality information, using tracking information stored in RFID data storage means | |
CN103649999B (en) | For determining the content-adaptive system of light stream, method and apparatus | |
DE60213526T2 (en) | Method and system for improving situational awareness of command control units | |
DE112018004395T5 (en) | VIRTUAL ACCESS TO AN ACCESS-LIMITED OBJECT | |
US20070076090A1 (en) | Device for generating three dimensional surface models of moving objects | |
CN107291879A (en) | The method for visualizing of three-dimensional environment map in a kind of virtual reality system | |
DE102008024462A1 (en) | Interactive imaging system, interactive device and method of operation thereof | |
DE112016004079T5 (en) | Sensor device, sensor system and information processing device | |
DE102018209377A1 (en) | A method of presenting AR / VR content on a mobile terminal and mobile terminal presenting AR / VR content | |
DE102015115786A1 (en) | Doppler-based segmentation and optical flow in radar images | |
Jin et al. | Practical speed measurement for an intelligent vehicle based on double radon transform in urban traffic scenarios | |
CN117197388A (en) | Live-action three-dimensional virtual reality scene construction method and system based on generation of antagonistic neural network and oblique photography | |
JP6521352B2 (en) | Information presentation system and terminal | |
DE102004061842B4 (en) | Tracking system for mobile applications | |
EP2528042A1 (en) | Method and device for the re-meshing of 3D polygon models | |
DE102004061841B4 (en) | Markerless tracking system for augmented reality applications | |
DE102015115789A1 (en) | Doppler-based segmentation and optical flow in radar images | |
DE102020100230A1 (en) | RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS | |
EP3711392B1 (en) | Method and device for position determination | |
WO2020039897A1 (en) | Station monitoring system and station monitoring method | |
EP3543901A2 (en) | Device and method for robust determination of the position, orientation, identity and selected status information of objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: METAIO GMBH, 85748 GARCHING, DE |
|
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: KLUNKER, SCHMITT-NILSON, HIRSCH, DE |
|
R081 | Change of applicant/patentee |
Owner name: METAIO GMBH, DE Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE Effective date: 20140226 Owner name: APPLE INC., CUPERTINO, US Free format text: FORMER OWNER: METAIO GMBH, 85748 GARCHING, DE Effective date: 20140226 |
|
R082 | Change of representative |
Representative=s name: KLUNKER, SCHMITT-NILSON, HIRSCH, DE Effective date: 20140226 Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE Effective date: 20140226 Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE Effective date: 20140226 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R082 | Change of representative |
Representative=s name: SCHMITT-NILSON SCHRAUD WAIBEL WOHLFROM PATENTA, DE Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE |
|
R020 | Patent grant now final | ||
R081 | Change of applicant/patentee |
Owner name: APPLE INC., CUPERTINO, US Free format text: FORMER OWNER: METAIO GMBH, 80335 MUENCHEN, DE |
|
R082 | Change of representative |
Representative=s name: BARDEHLE PAGENBERG PARTNERSCHAFT MBB PATENTANW, DE |