DE69532126T2 - Verfahren zum sammeln und verarbeiten visueller und räumlicher positionsinformation - Google Patents

Verfahren zum sammeln und verarbeiten visueller und räumlicher positionsinformation Download PDF

Info

Publication number
DE69532126T2
DE69532126T2 DE69532126T DE69532126T DE69532126T2 DE 69532126 T2 DE69532126 T2 DE 69532126T2 DE 69532126 T DE69532126 T DE 69532126T DE 69532126 T DE69532126 T DE 69532126T DE 69532126 T2 DE69532126 T2 DE 69532126T2
Authority
DE
Germany
Prior art keywords
video
moving platform
images
recorded
spatial position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69532126T
Other languages
English (en)
Other versions
DE69532126D1 (de
Inventor
M. Theodore LACHINSKI
Steven Louis PTACEK
M. Paul BLAIS
Stephen Boggs
W. John LONGFELLOW
M. Jeffrey SETTERHOLM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEOSPAN CORP PLYMOUTH
GEOSPAN Corp
Original Assignee
GEOSPAN CORP PLYMOUTH
GEOSPAN Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22930097&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69532126(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by GEOSPAN CORP PLYMOUTH, GEOSPAN Corp filed Critical GEOSPAN CORP PLYMOUTH
Publication of DE69532126D1 publication Critical patent/DE69532126D1/de
Application granted granted Critical
Publication of DE69532126T2 publication Critical patent/DE69532126T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren zum Verwenden integrierter Video- und räumlicher oder Ortspositionsinformation zum Aufrechterhalten bzw. Pflegen und Erweitern von Information in einem geographischen Informationssystem. Das Verfahren weist eine Hochgeschwindigkeitserfassung von Video- und Ortspositionsdaten sowie eine schnelle und effiziente Datenspeicherung auf. Ein derartiges Verfahren ist insbesondere bei der Aktualisierung der TIGER/LineTM-Dateien des Statistischen Bundesamtes der USA zum Verbessern der Genauigkeit darin enthaltener Koordinaten, zum Hinzufügen fehlender Straßen- und Adresseninformation und zum Hinzufügen von Fahrzeug-Routenführungsdaten geeignet. Das Verfahren kann auch dazu verwendet werden, für Bereiche, in denen solche Dateien noch nicht existieren, Dateien zu erzeugen, die TIGER/Line-Dateien ähnlich sind.
  • Die TIGER/Line-Dateien sind eine computerlesbare geographische Datenbank der Vereinigten Staaten. Die Originalquellen der Datenbank sind z. B. geologische Vermessungskarten der Vereinigten Staaten, die DIME-Dateien des Statistischen Bundesamtes der USA von 1980 und verschiedene andere Quellen. Obwohl diese geographischen Dateien als Basis für ein geographisches Informationssystem verwendbar sind, sind sie für bestimmte Anwendungen, bei denen eine hohe Positionsgenauigkeit erforderlich ist, nicht empfehlenswert. Dies ist der Fall, weil die Positionsgenauigkeit der in der Datei enthaltenen Information durch den Maßstab der geologischen Vermessungskarten der Vereinigten Staaten begrenzt ist, von denen die Dateien erzeugt werden.
  • Außerdem ist die in den TIGER/Line-Dateien enthaltene Information nur so vollständig und genau, wie die durch das Statistische Bundesamt der USA verwendeten Dokumente, so daß in der Zusammenstellung oder Sammlung und Übersetzung von Information von Quellendokumenten häufig Fehler erzeugt werden. Außerdem ist die Information nur so aktuell wie das Jahr, in dem die Quellendokumente gesammelt und übersetzt wurden.
  • Weil die in einem geographischen Informationssystem, z. B. in den TIGER/Line-Dateien, enthaltene Information kontinuierlich aktualisiert werden muß, um die neuesten Änderungen in der darin enthaltenen Information zu berücksichtigen, ist es wünschenswert, ein Verfahren zum Erfassen und Verarbeiten von Video- und Ortspositionsinformation auf eine Weise bereitzustellen, die es ermöglicht, aktualisierte Attributinformation in bereits erhaltene Ortspositionsinformation einzubinden oder zu integrieren.
  • Gemäß einem Verfahren zum Erfassen exakter Ortspositionsinformation wird das GPS-System (Global Positioning System) verwendet. Das GPS-System ist ein Netz von Satelliten, die zu bekannten, präzisen Zeiten konstant ihre Position übertragen. Weil die Orbitalposition jedes Satelliten bekannt ist, kann ein GPS-Empfänger auf der Erdoberfläche die Zeit exakt messen, die ein ausgesendetes Signal benötigt, um die Empfängerposition auf der Erde zu erreichen. Durch diese Messung wird der Abstand zwischen dem Satelliten und dem Empfänger bestimmt. Um eine dreidimensionale Position zu erhalten, führt der GPS-Empfänger diese Messung bezüglich mindestens vier einzelnen, die Erde umkreisenden Satelliten aus. Unter Verwendung geometrischer Prinzipien kann die durch den GPS-Empfänger erfaßte Information zum Berechnen des Abstands jedes Satelliten bezüglich des Empfängers und damit zum Berechnen einer exakten Ortspositionsinformation auf der Erde verwendet werden.
  • Obwohl durch das GPS-System exakte Ortspositionsinformation bereitgestellt werden kann, treten Probleme auf, wenn der GPS-Empfänger nicht in der Lage ist, Information von mindestens vier Satelliten zu empfangen. Dies tritt auf, wenn der GPS-Empfänger durch geographische Merkmale oder Strukturen, z. B. Canyons oder Klippen, sowie durch durch Menschen erzeugte Strukturen behindert wird. Probleme treten auch dann auf, wenn ein durch einen die Erde umkreisenden Satellit übertragenes Signal von einem nahen Objekt reflektiert wird, wodurch der GPS-Empfänger einen oder mehrere fehlerhafte Werte von diesem Satellit erhält.
  • Ein weiteres Problem bei der Verwendung des GPS-Systems zum Bereitstellen von Ortsinformation besteht darin, daß die Ortspositionswerte durch den GPS-Empfänger häufig mit einer relativ niedrigen Rate bereitgestellt werden.
  • Ein Beispiel eines herkömmlichen Systems ist von Frank Lee in "GPS 4 Video data collection in Los Angeles county – a status report", PLANS, Las Vegas, 11.–15. April 1999, 11. April 94, Seiten 388–393, IEEE beschrieben.
  • Kurze Beschreibung der Erfindung
  • Durch die vorliegende Erfindung wird ein Verfahren zum Erfassen und Verarbeiten von Video- und Ortspositionsinformation zum Erstellen einer geographischen Informationsdatenbank bereitgestellt. Die Datenbank kann weiterverarbeitet werden, um zusätzliche Datenbanken zu erzeugen, die für verschiedenartige Anwendungen verwendbar sind, z. B. zum Ermöglichen eines Zugriffs auf visuelle Bilder von Straßen und ihren Umgebungen. Außerdem kann die durch das erfindungsge mäße Verfahren erfaßte und verarbeitete Information zum Aktualisieren der TIGER/Line-Computerkartendateien des Statistische Bundesamtes der USA verwendet werden, um die Genauigkeit der Dateien zu verbessern und Information hinzuzufügen.
  • Erfindungsgemäß wird ein Erfassungssystem mit Videokameras, einem GPS-Empfänger, einem inertialen oder Trägheitsnavigationssystem (INS) und einem Steuercomputer bereitgestellt. Das Erfassungssystem ist in einem sich bewegenden Fahrzeug, z. B. in einem Van, installiert. Der GPS-Empfänger führt dem Steuercomputer satelliten-basierte Ortspositionsinformation und exakte Zeitwerte zu, während das INS-System dem Steuercomputer kinematisch-basierte Ortspositionsinformation zuführt. Gleichzeitig zeichnet ein durch den Steuercomputer gesteuerter Videorekorder verschachtelte Videobilder, die von den Videokameras erhalten werden, auf ein einzelnes Videoband auf.
  • Jeder Rahmen bzw. jedes Bild des Videobandes weist einen ihm zugeordneten Zeitcode auf. Dieser Zeitcode wird durch den Steuercomputer zusammen mit der aktuellen Ortspositionsinformation aufgezeichnet, die durch den GPS-Empfänger und das INS-System zu dem Zeitpunkt bereitgestellt werden, an dem der Rahmen aufgezeichnet wird. Auf diese Weise kann jedes aufgezeichnete Videobild mit der Ortsposition der Kamera zu dem Zeitpunkt, an dem das Bild aufgezeichnet wurde, korreliert werden.
  • Ein GPS-Empfänger ist an einer bekannten Position angeordnet und stellt absolute Ortspositionsinformation und absolute Zeitwerte bereit, die von den gleichen GPS-Satelliten erhalten werden, die durch den GPS-Empfänger im Datenerfassungssystem verwendet werden. Die Positionsinformation wird verwendet, um durch ein als differentielle Verarbeitung be kanntes Verfahren Ortsfehler in der aufgezeichneten GPS-Ortspositionsinformation zu eliminieren.
  • Zum Bestimmen der wahren Mittellinie jeder Straße, für die Daten erfaßt wurden, wird eine Mittellinienversatzverarbeitung verwendet. Die Mittellinien werden verwendet, um in einem als Straßensegmentierungsprozeß bezeichneten Prozeß Straßensegmente zu erzeugen, und jedem Straßensegment wird eine Sequenz von Videobildern zugeordnet. Die Beziehung zwischen jedem Segment und den zugeordneten Videobildern wird in einer Datenbank gespeichert. Zusätzliche Attributinformationsdatenbanken können u. a. für eine Adressenlokalisierungs-, eine Fahrzeug-Routenführungs- und eine Ortslokalisierungsanwendung erzeugt werden.
  • Weil durch das erfindungsgemäße Verfahren die Ortsposition zu dem Zeitpunkt aufgezeichnet wird, an dem ein entsprechendes Videobild aufgezeichnet wird, können die Videobilder später so oft wie erforderlich betrachtet und geprüft werden, um die Genauigkeit und Vollständigkeit der darin dargestellten Attribute oder Merkmale zu bestätigen. Außerdem ermöglicht die vorliegende Erfindung, weil durch das INS-System sechsdimensionale Ortspositionsinformation bereitgestellt wird, die exakte Bestimmung der Position bzw. Lokalisierung eines Punktes bzw. Ortes anhand zweier beliebiger Videobilder, die den Punkt bzw. Ort enthalten.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt eine perspektivische Ansicht eines Fahrzeugs, in dem das erfindungsgemäße Sammel- bzw. Erfassungssystem angeordnet werden kann;
  • 2 zeigt ein schematisches Diagramm des erfindungsgemäßen Erfassungssystems;
  • 3 zeigt ein schematisches Diagramm eines Teils des erfindungsgemäßen Bilderfassungssystems;
  • 4 zeigt ein schematisches Diagramm eines Teils des erfindungsgemäßen Bilderfassungssystems;
  • 5 zeigt eine durch das Trägheitsnavigationssystem bereitgestellte sechsdimensionale Relativposition des Fahrzeugs;
  • 6 zeigt ein schematisches Diagramm von Dateneinund -ausgabeeinrichtungen des erfindungsgemäßen Erfassungssystems;
  • 7 zeigt eine Folge von erfindungsgemäß ausgeführten Arbeitsschritten;
  • 8 zeigt die Weise, auf die ein Straßenmittellinienabschnitt bestimmt wird;
  • 9 zeigt ein durch das erfindungsgemäße Verfahren erzeugtes Straßensegment;
  • 10 zeigt einen Abschnitt eines durch das erfindungsgemäße Verfahren erzeugten Straßensegments;
  • 11 zeigt eine Beziehung zwischen einer Folge aufgezeichneter Videobilder und einem Straßensegment; und
  • 12 zeigt ein schematisches Diagramm mehrerer Möglichkeiten der Verwendung aktualisierter Straßensegmente.
  • Ausführliche Beschreibung der bevorzugten Ausführungsformen
  • Durch das erfindungsgemäße Verfahren wird durch ein Erfassungssystem 10 exakte visuelle bzw. Video- und Positionsinformation auf eine schnelle und effiziente Weise gesammelt bzw. erfaßt. Die Information wird dann für eine Verarbeitung nach dem Erfassungsvorgang gespeichert, wodurch die Daten in einem geeigneteren bzw. leichter verwendbarem Format angeordnet werden. Nach der Verarbeitung werden verschiedene Extraktionsprozesse verwendet, um verschiedenartige geographische/Informationsdatenbanken zu erzeugen. Dies wird teilweise durch Erzeugen von Straßensegmenten und Erzeugen indirek ter Beziehungen zwischen den Segmenten und aufgezeichneten Videodaten realisiert. Im allgemeinen ist das Erfassungssystem 10, wie in 1 dargestellt, auf einer sich bewegenden Plattform, z. B. auf einem sich bewegenden Fahrzeug 11, angeordnet.
  • Das Erfassungssystem 10 zum Erfassen von Video- und Positionsinformation ist in 2 dargestellt und weist einen Landbezugspunktabbildungscomputer 12, einen Datenerfassungssteuercomputer 16, einen Videorekorder 20, ein Bildsteuerungssystem 22 mit einem digitalen Matrix-Router 23, einen GPS-Empfänger 24 und ein Trägheitsnavigationssystem (INS) 28 auf. Außerdem weist das Erfassungssystem 10 einen ersten Computermonitor 30, einen zweiten Computermonitor 32, eine Tastatur 36, einen Auswahlschalter 38 und einen Trackball oder eine Rollkugel 40 auf. Jede dieser Komponenten ist im sich bewegenden Fahrzeug 11 angeordnet. Mehrere im Fahrzeug 11 angeordnete Batterien führen den Erfassungssystemkomponenten auch dann Leistung zu, wenn der Motor nicht läuft. Den Komponenten wird unter Verwendung eines Wechselrichters Wechselspannung zugeführt. Das Erfassungssystem 10 weist außerdem einen GPS-Basis-Empfänger 42 auf, der an einer bekannten, festen Position getrennt von den übrigen Komponenten des Erfassungssystems 10 angeordnet ist.
  • Der Steuercomputer ist mit dem Videorekorder 20, dem digitalen Matrix-Router 23, dem GPS-Empfänger 24, dem INS-System 28 und dem Abbildungscomputer 12 verbunden. Die Tastatur 36 wird durch den Auswahlschalter 38 sowohl mit dem Steuercomputer 16 als auch mit dem Abbildungscomputer 12 selektiv verbunden. Außerdem ist die Rollkugel 40 mit dem Abbildungscomputer 12 elektrisch verbunden. Der erste Computermonitor 30 ist mit dem Abbildungscomputer 12 verbunden, während der zweite Computermonitor 32 mit dem Steuercomputer 16 verbunden ist.
  • Der Datenerfassungssteuercomputer 16 führt einen Satz verschachtelte, asynchrone Unterbrechungsverarbeitungsroutinen aus, um eine Echtzeitsteuerung aller Datenerfassungskomponenten zu ermöglichen. Der Steuercomputer 16 steuert die Signalweiterleitung (Routing) aller erfaßten Daten sowie die Aufzeichnung der Daten durch den Videorekorder 20. Ein Videokomponentencontroller 44, z. B. ein Controller des Typs Video Logic V-LANTM, ist im Steuercomputer 16 angeordnet und steuert den Videorekorder 20, während er aufzeichnet. Der Videokomponentencontroller 44 ist über eine serielle RS-422-Kommunikationsleitung mit dem Videorekorder 20 verbunden.
  • Sowohl der GPS-Empfänger 24 als auch das INS-System 28 sind durch RS-232-Kommunikationsleitungen mit dem Steuercomputer 16 verbunden und führen dem Computer 16 räumliche bzw. Ortspositionsinformation zu. Der GPS-Empfänger 24 erfaßt, verfolgt und wählt automatisch die für Positions- und Zeitberechnungen zu verwendenden Satelliten und führt dem Steuercomputer 16 Positionswerte mit einer Rate von etwa drei Positionswerten pro Sekunde zu. Das INS-System 28 führt dem Steuercomputer 16 Relativpositionen mit einer Rate von etwa dreißig Positionen pro Sekunde zu. Die durch den Steuercomputer 16 empfangene(n) Positionsinformation bzw. Positionsdaten werden an eine Festplatte übertragen, um sie permanent zu speichern. Sowohl der Abbildungscomputer 12 als auch der Steuercomputer 16 weisen ein Sicherungsband zum Sichern der erfaßten Daten auf.
  • Der Landbezugspunktabbildungscomputer 12 führt die Position des sich bewegenden Fahrzeugs 11 in Echtzeit nach. Dies wird durch eine RS-232-Kommunikationsleitung zwischen dem Abbildungscomputer 12 und dem Steuercomputer 16 ermöglicht, so daß dem Abbildungscomputer 12 Positionsinformation zugeführt werden kann. Auf dem ersten Computermonitor 30 wird eine Straßenkarte dargestellt, die die aktuelle und die vorangehende Position des Fahrzeugs 11 zeigt. Die Karte basiert anfangs auf TIGER/Line-Dateien des Statistischen Bundesamtes (US Consens Bureau) der USA. Der Abbildungscomputer 12 dient daher als Navigationshilfe zur Routenführung des sich bewegenden Fahrzeugs 11 während des Datenerfassungsvorgangs.
  • Die 3 und 4 zeigen jeweils einen Teil des erfindungsgemäßen Bildsteuerungssystems 22, das zur einfacheren Darstellung nicht vollständig in einer einzigen Figur dargestellt ist. 3 zeigt den Teil des Bildsteuerungssystems 22, in dem die Videosignale weitergeleitet werden. Dieser Teil des Bildsteuerungssystems 22 weist den digitalen Matrix-Router 23, zehn Videokameras 50A, 50B, 50C, 50D, 50E, 50F, 50G, 50H, 50I und 50J (die zusammengefaßt durch das Bezugszeichen 50 bezeichnet werden), vier Videomonitore 54A, 54B, 54C, 54D (die zusammengefaßt durch das Bezugszeichen 54 bezeichnet werden), einen Vierfachansichtgenerator 62, eine Zeitbasiskorrektureinrichtung 64, ein Vektorskop 68 und zehn Videokamerasteuerungseinheiten 70A, 70B, 70C, 70D, 70E, 70F, 70G, 70H, 70I und 70J auf (die zusammengefaßt durch das Bezugszeichen 70 bezeichnet werden). Jede der Videokameras 50 ist im sich bewegenden Fahrzeug 11 an einer bekannten Position bezüglich des GPS-Empfängers 24 angeordnet und so ausgerichtet, daß eine gewünschte Ansicht bzw. ein gewünschtes Sichtfeld aufgenommen wird. Die Orientierung bzw. Ausrichtung der Videokameras 50 ist folgendermaßen:
  • Figure 00100001
  • Die Videokameras 50B und 50G sind auf fernsteuerbaren Schwenk-/Neigungseinheiten angeordnet und können unter Verwendung zweier Joystick-Steuerungen eingestellt werden, während die Kameras 50B, 50E, 50G und 50I Zoom- und Fokus-Fernsteuerungen aufweisen. Jede Videokamera 50 ist mit einer zugeordneten Kamerasteuerungseinheit 70 elektrisch verbunden, die dazu verwendet wird, normale Kamerakopfsteuerungen bereitzustellen. Jede Kamerasteuerungseinheit 70 ist mit einem von mehreren Eingängen 74 des digitalen Matrix-Routers 23 verbunden und führt dem Router 23 ein Signal zu. Der Abstand zwischen dem GPS-Empfänger 24 und jeder Videokamera 50 ist so bemessen, daß die räumliche oder Ortsposition jeder Kamera 50 anhand der erfaßten Qrtspositionsinformation bestimmbar ist.
  • Der digitale Matrix-Router 23 ist mit dem Datenerfassungssteuerungscomputer 16 verbunden, der die Operation des Routers 23 steuert. Der Router stellt an mehreren Router-Ausgängen 78 gemäß einer Anweisung durch im Steuercomputer 16 angeordnete Software jede gewünschte Kombination von an seinen Eingängen 74 empfangenen Signalen bereit. Vier Rou ter-Ausgänge 78 sind mit dem Vierfachansichtgenerator 62 elektrisch verbunden. Jeder der drei Router-Ausgänge 78 ist über das Vektorskop 68 mit dem ersten, dem zweiten und dem dritten Videomonitor 54A, 54B bzw. 54C elektrisch verbunden. Die beiden übrigen Router-Ausgänge 78 sind mit dem Videorekorder 20 bzw. einem vierten Videomonitor 54D elektrisch verbunden. Sowohl die Zeitbasiskorrektureinrichtung 64 als auch ein erster Ausgang 80 des Videorekorders 20 sind mit Router-Eingängen 74 elektrisch verbunden.
  • Der Vierfachansichtgenerator 62 weist vier Eingänge 82 auf, so daß Signale von vier der Videokameras 50 gleichzeitig eingegeben werden können. Der Generator 62 reduziert das durch jedes Signal dargestellte Bild auf ein Viertel seiner Originalgröße und kombiniert dann die reduzierten Bilder, um durch Anordnen jedes der reduzierten Bilder an einer der vier Ecken eines Ausgangsbildes ein einziges Videobild zu erzeugen. Dieses Ausgangsbild wird als Vierfachansichtbild bezeichnet und an einem Ausgang 84 des Vierfachansichtgenerators 62 bereitgestellt, der mit einem Eingang 86 der Zeitbasiskorrektureinrichtung 64 elektrisch verbunden ist. Die Zeitbasiskorrektureinrichtung 64 hält das Vierfachansichtbild in einem Puffer, bis das Bild durch den digitalen Matrix-Router 23 ausgewählt wird. Dieser Puffer ist erforderlich, weil durch den Vierfachansichtgenerator 62 erzeugte Vierfachansichtbilder etwa 1/10 Sekunde benötigen, um ausreichend stabil zu werden, damit sie durch den Videorekorder 20 exakt aufgezeichnet werden können.
  • Außer daß der digitale Matrix-Router 23 Signale an den Vierfachansichtgenerator 62 und den Videorekorder 20 überträgt, leitet er auch Bilder von den Videokameras 50 und von der Zeitbasiskorrektureinrichtung 54 an die vier Videomonitore 54 weiter. Die Reihenfolge und die Zeitdauer, mit der jedes der Bilder an die Monitore 54 weitergeleitet wird, wird durch Software im Steuercomputer 16 festgelegt, der dann den Router 23 anweist, welches Bild er bereitstellen soll. Die durch den Router 23 an den ersten, den zweiten und den dritten Videomonitor 54A, 54B und 54C weitergeleiteten Bilder werden über das Vektorskop 68 übertragen. Das Vektorskop 68 überwacht die durch den Router 23 bereitgestellten Signale von den Videoquellen und führt diese Signale dem ersten, dem zweiten und dem dritten Videomonitor 54A, 54B und 54C für eine normale Videoüberwachung zu. Das Vektorskop 68 wird als Diagnosequelle verwendet und führt Diagnosesignale von zwei Diagnoseausgängen 90 einem Kanal B des ersten Videomonitors 54A und des zweiten Videomonitors 54B zu.
  • Der Videorekorder 20 ist ein Videorekorder des Typs Sony PVW-2800 BetaCam SP und wird durch den Datenerfassungssteuercomputer 16 gesteuert. Ein zweiter Ausgang 94 des Videorekorders 20 ist mit einem zweiten Eingang 96 des vierten Videomonitors 54D elektrisch verbunden und führt einem Kanal B des Monitors 54D ein Signal zu, das die aufgezeichneten Videobilder enthält. Der Videorekorder 20 zeichnet vom digitalen Matrix-Router 23 bereitgestellte Bilder auf Videobändern des Typs Sony Betacam SP auf, die allgemein eine Aufzeichnungslänge von 90 min haben. Jedes Band weist drei Videokomponentenspuren, zwei Tonspuren und eine SMPTE- (Society of Motion Picture and Television Engineers) Zeitcodespur auf.
  • 4 zeigt den Teil des Bilderfassungssystems 22, der die präzise Zeitsteuerung für alle Videokomponenten bereitstellt. Ein Standard-Video-Schwarzreferenztaktgenerator 100 wird zum Synchronisieren der Zeitsteuerung des Bildsteuerungssystems 22 verwendet. Der Taktgenerator 100 weist einen ersten Generatorausgang 102, der mit dem Eingang eines ersten Sechskanalverteilungsverstärkers 104 elektrisch verbunden ist, und einen zweiten Generatorausgang 106 auf, der mit dem Eingang eines zweiten Sechskanalverteilungsverstärkers 108 elektrisch verbunden ist. Sowohl der erste Verstärker 104 als auch der zweite Verstärker 108 verstärken ein durch den Taktgenerator 100 erzeugtes Schwarzreferenztaktsignal und stellen das Taktsignal an einem ersten und einem zweiten Verstärkerausgang 110 bzw. 112 bereit.
  • Der erste Verteilungsverstärker 104 führt das Taktsignal dem Videorekorder 20, dem digitalen Matrix-Router 23, dem Vierfachansichtgenerator 62, dem Vektorskop 68 und der Zeitbasiskorrektureinrichtung 64 zu. Der zweite Verteilungsverstärker 108 führt das Taktsignal dem Videokomponentencontroller 44, der zweiten Kamerasteuerungseinheit 70B, der vierten Kamerasteuerungseinheit 70D, der sechsten Kamerasteuerungseinheit 70F, der achten Kamerasteuerungseinheit 70H und der zehnten Kamerasteuerungseinheit 70J zu. Die erste, die dritte, die fünfte, die siebente und die neunte Kamerasteuerungseinheit 70A, 70C, 70E, 70G und 70I sind mit der zweiten, der vierten, der sechsten, der achten und der zehnten Kamerasteuerungseinheit 70B, 70D, 70F, 70H bzw. 70J verbunden, um zu ermöglichen, daß das Taktsignal den übrigen Kamerasteuerungseinheiten zugeführt werden kann. Durch eine elektrische Schaltung mit jeder Videovorrichtung wird ein NTSC- (National Television Standards Committee) Videoaustastintervall mit dem Schwarzreferenztaktsignal synchronisiert.
  • Vor einer Aufzeichnung auf das Videoband werden die Kabelverbindungen zum Videorekorder 20 modifiziert, um dem Videorekorder 20 ein Video-Schwarzreferenzsignal zuzuführen, wodurch eine Folge einzelner Rahmen bzw. Frames oder Bilder auf einem leeren Band erzeugt wird. Ein im Videorekorder 20 integrierter Zeitcodegenerator erzeugt eine exakte Markierung für jeden dieser Videorahmen durch einen SMPTE-Zeitcode. Die SMPTE-Zeitcodes werden in einem kontinuierli chen Strom von Non-Drop-Rahmenzeitcodes in einem Stunden:Minuten:Sekunden-Rahmenformat, das dreißig Rahmen (0–29) pro Sekunde, 60 Sekunden pro Minute und 60 Minuten pro Stunde aufweist, auf das Videoband geschrieben. Die Markierung des Videobandes ermöglicht eine präzise Aufzeichnung von Videobildern auf die Videorahmen während des Datenerfassungsprozesses.
  • Der Steuercomputer 16 kann einen Befehlssatz an den digitalen Matrix-Router 23 übertragen, um eine als Zyklus bezeichnete gewünschte kontinuierliche Folge vorgegebener Routings oder Weiterleitungen auszuführen. Die an den Router 23 übertragenen Befehle werden durch den Videokomponentencontroller 44 zeitgesteuert. Befehle werden durch den Steuercomputer 16 an den Router 23 übertragen, bevor das NTSC-Videoaustastintervall des gewünschten Videorahmen-SMPTE-Zeitcodes und die Router-Schaltbefehle in eine Warteschlange des Routers 23 eingeordnet werden. Wenn das gewünschte NTSC-Videoaustastintervall des Schwarzreferenztaktsignals durch den Router 23 erfaßt wird, werden die Routereingänge 74 gemäß der Spezifizierung durch die Befehle vom Steuercomputer 16 mit den Routerausgängen 78 verbunden. Die Verbindungen zwischen den Routereingängen und -ausgängen 74 und 78 werden vor dem Ende des NTSC-Videoaustastintervalls abgeschlossen, um einmal pro Austastintervall einen nahtlosen Schaltvorgang zu ermöglichen.
  • Jede der Videokameras 50 ist in der Lage, Bilder mit einer Rate von 30 Rahmen pro Sekunde bereitzustellen. Außerdem ist der digitale. Matrix-Router 23 in der Lage, das Routing oder die Weiterleitung der an seinen Eingängen 74 empfangenen Signale dreißigmal pro Sekunde zu ändern. Die an den Routerausgängen 78 bereitgestellten Videobilder können dadurch dreißigmal pro Sekunde geändert werden.
  • In den dem Router 23 zugeführten Befehlen ist eine Folge der Videokameras 50 enthalten, von denen Videobilder durch den Videorekorder 20 aufgezeichnet werden sollen. Auf diese Weise können Bilder von jeder der Videokameras 50 durch eine einzige Videoaufzeichnungsvorrichtung in einer gewünschten Folge aufgezeichnet werden. Ein typischer 18-Rahmen-Aufzeichnungszyklus ist folgendermaßen gegeben:
  • Figure 00150001
  • Der vorgegebene Aufzeichnungszyklus wird während des Datenerfassungsprozesses kontinuierlich wiederholt, wodurch mehrere verschachtelte Videobilder von mehreren Videobildquellen auf einem Aufzeichnungsmedium aufgezeichnet werden. Wie dargestellt ist, kann nicht nur die Ansicht von einer beliebigen Videokamera 50 aufgezeichnet werden, sondern es kann ein beliebiges gewünschtes Vierfachansichtbild aufgezeichnet werden. Durch die gelegentliche Aufzeichnung der gleichen Kameraansicht für zwei aufeinanderfolgende Rahmen werden sequentielle Seitenansichten bereitgestellt, die für eine terrestrische Photogrammetrie nützlich sein können.
  • Der vorstehend dargestellte Aufzeichnungszyklus kann während des Aufzeichnungsvorgangs dynamisch konfiguriert werden. Die Computertastatur 36 ermöglicht bis zu zehn vorgegebene Aufzeichnungszyklen. Wenn ein neuer Aufzeichnungszyklus ausgewählt wird, beginnt der Steuercomputer 16 den neuen Zyklus unmittelbar nach Abschluß des dann aktuellen Aufzeichnungszyklus. Durch die vorstehend beschriebene präzise Zeitsteuerung wird ermöglicht, daß innerhalb eines einzigen NTSC-Austastintervalls eine Änderung im Aufzeichnungszyklus sowie eine Änderung der den Videomonitoren 54 zugeführten Signale vorgenommen werden können.
  • Während des Datenerfassungsprozesses, der in eine Folge von "Läufen" oder "Runs" organisiert ist, übertragen die Videokameras 50 kontinuierlich Bildsignale über die Kamerasteuerungseinheiten 70 an den digitalen Matrix-Router 23. Gemäß den Befehlen vom Steuercomputer 16 führt der Router 23 dem Videorekorder 20 das Signal von einer ausgewählten der Bildquellen zu, die die zehn Videokameras 50 und den Vierfachansichtgenerator 62 umfassen. Die dem Videorekorder 20 zugeführten Bilder werden mit einer Rate von dreißig Bildern pro Sekunde in einer vorgegebenen Reihenfolge aufgezeichnet, die einen Zyklus aufweist. Außerdem werden Audiokommentare vom Fahrer und von einem Navigator des sich bewegenden Fahrzeugs 11 durch den Videorekorder 20 aufgezeichnet.
  • Während der Videorekorder 20 Videobilder aufzeichnet, erfaßt der GPS-Empfänger 24 dreidimensionale feste Ortsdaten vom NASA NAVSTAR-Satellitennetz in ausgewählten Zeitintervallen und an ausgewählten Positionen. Diese festen Ortsdaten werden dem Steuercomputer 16 zusammen mit der durch die Satelliten übertragenen mittleren Greenwich-Zeit (GMT) zugeführt. Der Steuercomputer zeichnet die Ortsdaten jedes durch den GPS-Empfänger 24 bereitgestellten Positionswertes auf, wobei die Daten bezüglich der geographischen Breite, Länge und Höhe bereitgestellt werden. Der Videokomponentencontroller 44 führt dem Steuercomputer 16 für jeden Positionswert des GPS-Empfängers, den er empfängt und aufzeichnet, den SMPTE-Zeitcode des Rahmens zu, auf den der Videorekorder 20 aufzeichnet. Der SMPTE-Zeitcode wird dann zusammen mit dem entsprechenden Satz von GPS-Ortsdaten durch den Steuercomputer 16 aufgezeichnet.
  • Das Trägheitsnavigationssystem (INS) 28 weist einen Satz von Drehbewegungs- und Beschleunigungssensoren auf und bestimmt die Relativposition des Fahrzeugs bezüglich der geographischen Breite, Länge und Höhe und des Pitch-, des Roll- und des Yaw-Winkels, wie in 5 dargestellt ist. Das INS-System 28 kann dadurch eine Ortsposition mit sechs Freiheitsgraden bezüglich den durch den GPS-Empfänger empfangenen vorangehenden Positionswerten bereitstellen. Das INS-System stellt diese sechsdimensionalen Relativpositionsdaten mit einer Rate von dreißig Daten pro Sekunde bereit, und die Daten werden durch den Steuercomputer 16 gespeichert. Vorzugsweise verwendet das INS-System 28 Qualitäts-Lasergyroskope, die extrem genaue Drehpositions-/Lagedaten bereitstellen. Das INS-System 28 kann außerdem einen mit einem nicht angetriebenen Rad des Fahrzeugs 11 verbundenen Kilometer- oder Wegstreckenzähler aufweisen, wodurch das Erfordernis, anzuhalten, um das INS-System 28 neu einzustellen, reduziert wird.
  • Der Videokomponentencontroller 44 führt dem Steuercomputer 16 für jeden Positionswert des INS-Systems 28, den es empfängt und aufzeichnet, den SMPTE-Zeitcode des Rahmens zu, auf den der Videorekorder 20 aufzeichnet. Der SMPTE-Zeitcode wird dann durch den Steuercomputer 16 mit dem entsprechenden Satz von INS-Positionsdaten aufgezeichnet. Durch die Auf zeichnung der GPS- und INS-Ortspositionsdaten zusammen mit dem entsprechenden SMPTE-Zeitcode können die Positionsdaten während einer nach dem Erfassungsvorgang ausgeführten Verarbeitung durch den SMPTE-Zeitcode interpoliert werden.
  • Durch Verwendung des Trägheitsnavigationssystems 28 ist das erfindungsgemäße Erfassungssystem in der Lage, exakte Positionswerte bei vielen Situationen zu erfassen, in denen der GPS-Empfänger 24 nicht in der Lage ist, exakte Positionsdaten zu erhalten. Dies tritt häufig dann auf, wenn der GPS-Empfänger nicht genügend Satellitensignale empfangen kann, um eine Position zu berechnen, und wenn die Signale von einem oder mehreren Satelliten an einem Gebäude oder an einer anderen Oberfläche reflektiert werden.
  • Wenn das Fahrzeug für eine längere Zeitdauer anhalten muß, oder wenn eine zuvor aufgezeichnete Straße erneut abgefahren werden muß, um einen gewünschten Ort zu erreichen, wird durch den Navigator ein Pausebefehl zum Stoppen der Aufzeichnung sowohl von Videobildern als auch der Positionsinformation erzeugt. Wenn mit der Aufzeichnung von Daten begonnen werden soll, wird ein Wiederaufnahmebefehl erzeugt. Der Steuercomputer 16 zeichnet den SMPTE-Zeitcode des letzten Rahmens, auf den der Videorekorder 20 aufgezeichnet hat, nachdem ein Pausebefehl ausgegeben wurde, und des ersten Rahmens auf, an dem die Aufzeichnung nach einem Wiederaufnahmebefehl beginnt.
  • 6 zeigt den Datenfluß im Erfassungssystem während eines Datenerfassungsvorgangs. Die erfaßten Daten beinhalten Daten des Videobands 114, GPS- und INS-Ortspositionsdaten 115 und eine Aufzeichnung jedes ausgegebenen Pause- und Wiederaufnahmebefehls 116. Das Videoband 114 enthält alle aufgezeichneten Videobilder sowie die gesamte Audioinformation 118 vom Fahrer und vom Navigator. Die Videobanddaten 114 werden in ein komprimiertes digitales Format umgewandelt und in einer digitalen Videodatei gespeichert, so daß während einer nach dem Erfassungsvorgang ausgeführten Verarbeitung direkt darauf zugegriffen werden kann. Es wird eine Korrelationstabelle erzeugt, um eine Beziehung zwischen dem SMPTE-Zeitcode jedes digitalen Videorahmens und dem SMPTE-Zeitcode auf dem Original-Videoband zu erhalten. Die vom GPS-Empfänger 24 und vom INS-System 24 bereitgestellten GPS- und INS-Positionsdaten 115 werden als digitale Datei gespeichert. Die aufgezeichneten sechsdimensionalen Ortspositionsdaten werden mit einem SMPTE-Zeitcode-Index versehen, so daß sie jedem aufgezeichneten Videobild oder -rahmen zugeordnet werden können. Jeder Satz von Positionsdaten enthält außerdem die entsprechende mittlere Greenwich-Zeit (GMT), die darstellt, wann die Information erfaßt wurde, und ermöglicht, daß SMPTE-Zeitcodes mit einem GMT-Zeitindex versehen werden können. Die Aufzeichnung jedes Pause- und Wiederaufnahmebefehls wird mit einem SMPTE-Zeitcode-Index versehen.
  • Während jedes Runs erfaßt der GPS-Basis-Empfänger 42, der in 6 nicht dargestellt ist, dreidimensionale Positionsdaten vom NASA NAVSTAR-Satellitennetz in den gleichen Zeitintervallen wie der GPS-Empfänger 24 im Fahrzeug. Jeder Satz von Positionsdaten wird in einer Basisstationsdatei zusammen mit einer entsprechenden, durch die GPS-Satelliten bereitgestellten GMT-Zeit aufgezeichnet. Die Erfassung von Positionsdaten durch den GPS-Basis-Empfänger 42 muß vor Beginn jedes Runs beginnen und während jedes Runs kontinuierlich erfolgen. Außerdem muß der GPS-Basis-Empfänger 42 so positioniert sein, daß sich zwischen dem Empfänger 42 und den GPS-Satelliten keine Hindernisse befinden.
  • 7 zeigt eine Folge von Schritten, die während des erfindungsgemäßen Verfahrens ausgeführt werden. Wie vorstehend beschrieben wurde, werden durch das Datenerfassungssystem 10 sowohl visuelle oder Video- als auch räumliche oder Ortspositionsdaten erfaßt, wie durch einen Block 120 dargestellt ist, und Ortspositionsdaten werden unter Verwendung des GPS-Basis-Empfängers 42 erfaßt, wie durch einen Block 122 dargestellt ist. Die Ortspositionsdaten vom GPS-Empfänger 24 und vom GPS-Basis-Empfänger 42 werden dann differentiell weiterverarbeitet, wie durch einen Block 124 dargestellt ist. Die differentiell verarbeiteten GPS-Daten und INS-Ortspositionsdaten werden wie in Block 126 dargestellt korreliert, Fehler in den INS-Positionsdaten werden korrigiert und die GPS- und INS-Positionsdaten werden kombiniert, wie durch einen Block 128 dargestellt ist.
  • Dann wird der Versatz zwischen der Ortsposition des Fahrzeugs 11 und der Straßenmittellinie, wie in Block 132 dargestellt, unter Verwendung der erfaßten Bilder auf dem Videoband 130 berechnet. Dann werden Straßenmittellinienpunkte auf einem CAD-Displaysystem gezeichnet, wie durch Block 135 dargestellt ist. Straßensegmentknoten von einer TIGER/Line-Datei 134 werden aktualisiert, wie durch Block 138 dargestellt ist, und basierend auf den aktualisierten Straßensegmentknoten können neue Straßensegmente erzeugt werden, wie durch Block 140 dargestellt ist. Dann werden Formpunkte für die Straßensegmente berechnet, wie durch Block 142 dargestellt ist, und es wird eine Videobild-Segment-Beziehung erzeugt, wie durch Block 144 dargestellt ist. Dadurch wird eine vollständige Datendatei 146 bereitgestellt, die exakte, aktualisierte Straßensegmente mit einer bekannten Beziehung mit den aufgezeichneten Videobildern aufweist. Jeder dieser Schritte wird nachstehend ausführlicher beschrieben.
  • Das US-Verteidigungsministerium (United States Department of Defense) führt absichtlich Fehler in die durch jeden Satelliten bereitgestellte NAVSTAR-Satelliteninformation ein, wodurch Ungenauigkeiten in den Positionsdaten entste hen. Dieser Fehler wird vor der Verarbeitung der erfaßten Information durch die differentielle Verarbeitung der durch den bekannten GPS-Basis-Empfänger 42 erfaßten Positionsdaten mit denjenigen des Fahrzeug-basierten GPS-Empfängers 24 eliminiert. Die durch den GPS-Basis-Empfänger 42 aufgezeichneten Positionsdaten werden mit einem GMT-Zeitcode-Index versehen und mit den durch den GPS-Empfänger 24 aufgezeichneten Positionsdaten unter Verwendung der GMT-Zeitcodes korreliert. Durch eine differentielle Verarbeitung wird eine korrigierte dreidimensionale Ortsposition des GPS-Empfängers 24 bezüglich der geographischen Breite, Länge und Höhe für jede Position erhalten, bei der ein GPS-Meßwert aufgenommen wurde.
  • Nachdem eine Absolutposition für jeden GPS-Meßwert bestimmt worden ist, können die aufgezeichneten Relativpositionsdaten vom INS-System 28 in absolute Ortspositionsdaten bezüglich der geographischen Breite, Länge und Höhe umgewandelt werden. Diese Absolutpositionen werden dann mit den aufgezeichneten Pitch-, Roll- und Yaw-Winkeln bzw. Nick-, Roll- und Gierwinkeln des Fahrzeugs kombiniert, um eine vollständige Datendatei exakter sechsdimensionaler Ortspositionen zu erzeugen, auf die durch das Datum, den SMPTE-Zeitcode, die GMT-Zeit und den Run Bezug genommen werden kann. Während dieser Verarbeitung werden die INS-Positionsdaten korrigiert, wenn zwischen den durch das INS-System 28 und den durch den GPS-Empfänger 24 bereitgestellten Positionsdaten Abweichungen bestehen. Wenn dies der Fall ist, werden die durch das INS-System 28 bereitgestellten Positionsdaten durch Vorgabe des in der Geschwindigkeit und Richtung bei dem Abweichungspunkt gefundenen Fehlers rückwärts durch die aufgezeichneten Daten bis zum vorangehenden GPS-Positionswert korrigiert.
  • Nachdem die Datenerfassung und die Nachverarbeitung abgeschlossen sind, ist die Information für eine Korrelation und Extraktion der visuellen Daten bereit. Dieser Extraktionsprozeß wird vollständig nach dem Datenerfassungsprozeß und der Datennachverarbeitung ausgeführt. Durch Trennen des Erfassungs-, des Nachverarbeitungs- und des Extraktionsprozesses kann eine größere Datenmenge erfaßt und eine größere Informationsmenge extrahiert werden als in dem Fall, wenn die Verarbeitungen gleichzeitig ausgeführt würden. Die Information, bezüglich der der Extraktionsprozeß ausgeführt wird, beinhaltet die durch den Videorekorder 20 aufgezeichneten Videobilder, die sechsdimensionalen absoluten Ortspositionen des Fahrzeugs 11 und die Aufzeichnung der Pauseund Wiederaufnahmebefehle.
  • Eine Datei, die die absoluten Ortspositionen des Fahrzeugs 11 zusammen mit den entsprechenden SMPTE-Zeitcodes enthält, wird in ein (nicht dargestelltes) CAD-Displaysystem geladen. Das Displaysystem zeichnet die X- und Y-Koordinaten jeder in der Datei gespeicherten Ortsposition als Punkt. Der Abstand zwischen den Punkten variiert basierend auf der Geschwindigkeit des Fahrzeugs 11, und der sichtbare Weg gezeichneter Punkte definiert den wahren Weg des Fahrzeugs 11. Im allgemeinen fährt das Fahrzeug 11 auf einer Seite der Straßenmitte. Außerdem werden die Ortspositionsdaten bezüglich eines einzelnen Punktes innerhalb des Fahrzeugs 11 erfaßt. Daher stehen die erfaßten Ortspositionsdaten nicht direkt mit der wahren Straßenmitte in Beziehung, so daß ein Versatz des Fahrzeugs 11 von der tatsächlichen Straßenmitte berechnet werden muß, um die wahre Straßenmitte zu bestimmen.
  • Um die Straßenmittellinie zu bestimmen, kombiniert ein Operateur die Darstellung der gezeichneten Punkte, die die wahre Ortsposition des Fahrzeugs 11 darstellen, mit einer Darstellung der Vorder- oder der Rückansichtvideobilder. Die Vorder- oder die Rückansichtvideobilder, die jedem der gezeichneten Punkte entsprechen, können durch eine Direktzugriffsprozedur unter Verwendung des bekannten SMPTE-Zeitcodes für jeden Punkt abgerufen werden. Der Operateur wählt den ersten gezeichneten Punkt im Segment aus und stellt das entsprechende Videobild in einem Displayfenster eines digitalen Videocomputers dar. Die beiden Ansichten werden kalibriert, um die Mitte des Videobildes direkt mit der Fahrlinie des Fahrzeugs 11 in Deckung zu bringen. Eine eine gedachte Projektion von der Videobildquelle darstellende Linie wird auf dem Videodisplay als grafischer Cursor dargestellt. Dieser Cursor kann durch eine Steuerungsschnittstelle, z. B. eine Maus oder eine Rollkugel, nach links oder rechts bewegt werden. Der Abstand zwischen dem Cursor und der vertikalen Mitte des grafischen Bildes wird bezüglich einer Pixelzahl gemessen. Der Abstand in Pixeln wird unter Verwendung bekannter Information über die Montageposition und die Brennweite der Videoquelle in einen Abstand in Fuß (oder Meter) umgewandelt. Diese Abstand in Fuß (oder Meter) ist der Abstand, in dem die wahre Fahrzeugposition von der Straßenmitte versetzt ist und kann zum Berechnen der der Fahrzeugposition entsprechenden Ortsposition der Straßenmitte verwendet werden.
  • Der Mittellinienbestimmungsprozeß ist in 8 ausführlicher dargestellt. Ein von einer Kameralinse 152 einer der Kameras 50 aufgenommenes Videobild 150 ist zum Zweck der Darstellung über einer Straße 154 aufgehängt, auf der die Mittellinie bestimmt werden muß. Ein bekannter Vektor D erstreckt sich senkrecht von der Kameralinse 152 zur Oberfläche der Straße 154 und ist bezüglich eines Kamerakoordinatensystems definiert, das seinen Ursprung an der Kameralinse 152 hat. Unter Verwendung einer Zeigereinrichtung wird ein Pixel 156 auf der Mittellinie im Videobild 150 durch einen Operateur ausgewählt, und ein Vektor U wird in Koordinaten vom Kamerakoordinatensystem als sich von der Kameralinse 152 zum Pixel 156 erstreckender Vektor definiert. Dann wird für den Vektor U ein Multiplikator L derart bestimmt, daß L*U sich zu einem Punkt 158 in der Ebene der Oberfläche der Straße 154 erstreckt. Der Multiplikator wird durch folgende Gleichung bestimmt:
  • Figure 00240001
  • Nachdem der Multiplikator L gefunden wurde, wird der Vektor L*U bestimmt. Der Vektor L*U, der in Kamerakoordinaten definiert ist, wird anschließend in eine globale Ortsposition umgewandelt. Dies erfolgt durch Rotation von L*U, um die Drehunterschiede des Roll-, Pitch- und Yaw-Winkels bzw. Roll-, Nick- und Gierwinkels zwischen dem Kamerakoordinatensystem und der globalen Ortsposition zu berücksichtigen, und eine Translation von L*U, um die Versatzunterschiede der geographischen Breite, Länge und Höhe zwischen dem Kamerakoordinatensystem und der globalen Ortsposition zu berücksichtigen. Der umgewandelte Vektor wird dann zum Bestimmen der Ortsposition des Punktes 158 auf der Mittellinie verwendet.
  • Wenn auf der Straße keine Mittellinienmarkierung vorhanden ist, kann eine Zeigervorrichtung mit zwei zusätzlichen Markierungen verwendet werden. Die zusätzlichen Markierungen sind auf jeder Seite der Mittellinienmarkierung als gleiche Abstände vor dem Fahrzeug 11 gleich weit beabstandet. Die Breite des Zwischenraums zwischen den beiden Markierungen kann eingestellt werden, um es einem Operateur zu ermöglichen, den Straßenrändern zu folgen. Ein Computer bestimmt auf dem Videobild 150 automatisch den Punkt der Stra ße, zu dem der Vektor U sich von der Kameralinse 152 aus erstrecken sollte.
  • Wenn der Mittellinienbestimmungsprozeß für jeden gezeichneten Punkt eines Straßensegments ausgeführt wird, wird ein Satz von Breiten-, Längen- und Höhenkoordinaten erzeugt, der die wahre Straßenmittellinie darstellt. Wenn dieser Prozeß für jeden Punkt wiederholt worden ist, kann eine Straßenmittellinie für das Segment auf dem CAD-System dargestellt werden. Dieser Prozeß berücksichtigt außerdem Änderungen der Position des Fahrzeugs 11 bezüglich der Straßenmittellinie, wenn das Fahrzeug 11 die Straße entlang fährt, einschließlich durch Verkehr und Hindernisse verursachte Änderungen. Dieser Mittellinienbestimmungs- oder Versatzberechnungsprozeß wird ausgeführt, bis für jede erfaßte Ortsposition des Fahrzeugs 11 eine Straßenmittellinienposition berechnet worden ist.
  • Ein Straßensegment ist ein Satz geordneter Ortspositionen, die jeweils mit einer benachbarten Position verbunden sind und eine Näherung einer Straßenmittellinie darstellen. Im allgemeinen sind Straßensegmente bezüglich zwei derartigen Ortspositionen definiert, die als Anfangsknoten und Endknoten bekannt sind und die Enden der Segmente darstellen. Um gekrümmte Straßensegmente besser definieren zu können, wird normalerweise zwischen den Anfangs- und Endknoten ein Satz von als Formpunkte bekannten Zwischenpositionen ausgewählt. Für gerade Straßensegmente sind im allgemeinen keine Formpunkte erforderlich. Straßensegmente werden anfangs gemäß den zweidimensionalen TIGER/Line-Dateien des Statistischen Bundesamtes der USA definiert, wobei jedes Segment basierend auf einem als TIGER/Line-Identifizierung (TLID) bezeichneten TIGER/Line-Dateiidentifizierungscode eindeutig identifiziert ist.
  • Die 9 und 10 zeigen den Prozeß zum Aktualisieren eines Straßensegments. 9 zeigt mehrere gezeichnete Punkte 190, die einen Satz Ortspositionen darstellen, die für ein einzelnes Straßensegment erfaßt wurden. Mehrere Mittellinienpositionspunkte 194, die jeweils von einem der gezeichneten Punkte 190 unter Verwendung des vorstehend beschriebenen Mittellinienbestimmungsprozesses berechnet wurden, bilden eine Mittellinie 198. Ein TIGER/Line-Straßensegment 204 mit einem Anfangsknoten 208 und einem Endknoten 210 ist ebenfalls in 9 zusammen mit einem aktualisierten Straßensegment 212 mit einem neuen Anfangsknoten 216, einem neuen Endknoten 220 und mehreren Formpunkten 224 dargestellt.
  • Nach Abschluß des Mittellinienbestimmungsprozesses wird das Straßensegment, das den berechneten Mittellinienpositionspunkten 194 näherungsweise entspricht, von einer TIGER/Line-Datei des Statistischen Bundesamtes der USA abgerufen und auf dem CAD-Display über der berechneten Straßenmittellinie 198 dargestellt. Weil die TIGER/Live-Straßensegmente im allgemeinen nicht sehr genaue Näherungen neu berechneter Straßenmittellinien darstellen, muß das TIGER/Line-Straßensegment 204 aktualisiert werden. Dies erfolgt durch Neupositionieren des Anfangsknotens 208 und des Endknotens 210 des TIGER/Line-Straßensegments 204 und Definieren der im aktualisierten Straßensegment 212 zu verwendenden Formpunkte 224.
  • 10 zeigt eine Neupositionierung des Anfangsknotens 208 eines TIGER/Line-Straßensegments. Zwei Punkte 228 und 232 der Mittellinie 198 definieren einen ersten Vektor, der mathematisch zu einem zweiten Vektor hin projiziert ist, der durch zwei Punkte 236 und 240 einer kreuzenden Mittellinie 244 definiert ist. Der mathematische Schnittpunkt dieser beiden Vektoren wird bestimmt und definiert die geographi sche Breite und die Länge des neuen Anfangsknotens 216 des aktualisierten Straßensegments 212. Ein Höhenwert des neuen Anfangsknotens 216 wird von einem vertikalen Schnittpunkt der beiden Vektoren interpoliert. Der Endknoten 210 des TIGER/Live-Straßensegments 204 wird auf die gleiche Weise neu positioniert wie der Anfangsknoten 208, wodurch der neue Endknoten 220 des aktualisierten Straßensegments 212 bezüglich der geographischen Breite, Länge und Höhe definiert wird. Nachdem der Anfangs- und der Endknoten 208 und 210 des TIGER/Line-Straßensegments 204 aktualisiert worden sind, werden die Knotenpositionsattribute in der TIGER/Line-Datei aktualisiert. Weil jeder Knoten sowohl als Anfangs- als auch als Endknoten für mehrere Straßensegmente dient, werden mehrere Straßensegmente durch Neupositionieren jedes Knotens aktualisiert.
  • Gemäß 9 werden, nachdem der Anfangs- und der Endknoten 208 und 210 des TIGER/Line-Straßensegments 204 neu positioniert worden sind, die Mittellinienpositionspunkte 194 zwischen dem neuen Anfangsknoten 216 und dem neuen Endknoten 220 basierend auf einer Biegungs- und Abstandsformel statistisch ausgewertet, um die Formpunkte 224 auszuwählen, die zum grafischen Darstellen des aktualisierten Straßensegments 212 verwendet werden. Die Verwendung weniger Formpunkte 224 an Stelle einer großen Anzahl von Mittellinienpositionspunkten 194 erleichtert die effiziente Speicherung der grafischen Datenbasis. 9 zeigt eine grafische Darstellung des neu definierten Straßensegments 212 mit fünf Formpunkten 224.
  • Nachdem der Segmentaktualisierungsprozeß abgeschlossen ist, wird die aufgezeichnete Segmentdatenbank durch die Standard-TLID-Identifizierung unter Bezug auf die neuen Formpunkte 224 aktualisiert. Dadurch wird eine Rückwärtskompatibilität mit allen anderen TIGER/Live-Informationen bereitgestellt. Dieser Prozeß wird für alle Segmente wiederholt, die während des Runs abgefahren wurden. Außer daß die Segmentpositionsinformation aktualisiert wird, wird der Segmentdatenbank die Run-Identifizierung und der SMPTE-Zeitcode für den neuen Anfangs- und Endknoten 216 und 220 des aktualisierten Segments 212 hinzugefügt. Durch diese Zusatzinformation wird eine Bezugsinformation bereitgestellt, die für einen Zugriff auf die digitale Videodatei erforderlich ist. Durch Direktzugriff auf die Videodatei wird für jede in einem Straßensegment aufgenommene Ansicht eine neue digitale Videodatei erzeugt. Durch die Run-Identifizierung und den Anfangs-SMPTE-Zeitcode wird ein Verfahren zum eindeutigen Identifizieren jeder Gruppe aufgezeichneter Videobilder für jedes Straßensegment bereitgestellt.
  • Nachdem die physische Straßensegmenttopologie definiert ist, werden jedem Straßensegment Videobildsequenzen zugeordnet. Jede Videosequenz ist durch eine Fahrzeug-Run-Identifizierungsnummer sowie durch den Anfangs- und den End-Videorahmen-SMPTE-Zeitcode definiert. Indem jede Videosequenz auf diese Weise identifiziert wird, kann für jedes Segment ein eindeutiger Satz von Videobildern abgerufen werden. Außerdem wird eine Videoquellensequenznummer gespeichert, um einzelne Videoquellen in jedem verschachtelten Videosegment zu definieren. Die Videoquellensequenznummer bezeichnet die Position des Anfangs-Videobildes für das Segment im Videoaufzeichnungszyklus. Diese Information ermöglicht in Kombination mit der in der Run-Datenbank gespeicherten Videoaufzeichnungssequenz die Bestimmung der Videoquelle für jeden SMPTE-Zeitcode innerhalb des Segmentvideobereichs.
  • Es wird ein Videobild-Segmentanpassungsprozeß verwendet, um jedes Straßensegment mindestens einem Videobild anzupassen. Es wird Videobildpositionsinformation verwendet, um die Videobilder zu finden, die geographisch am nähesten zum Anfangsknoten und zum Endknoten eines Segments liegen. Zunächst wird durch einen Operateur ein Straßensegment mit einer bekannten Identifizierung ausgewählt. Der Operateur wählt dann eine Mittellinienposition innerhalb des Segments aus. Unter Verwendung des SMPTE-Zeitcodes des ausgewählten Mittellinienpositionspunktes und durch sequentielles Arbeiten, in beide Richtungen wird jeder Mittellinienpositionspunkt, an dem ein Videobild aufgezeichnet wurde, mit dem Anfangsknoten und dem Endknoten verglichen, bis die näheste geographische Übereinstimmung für jeden Knoten gefunden wird. Die SMPTE-Zeitcodes für diese beiden Videorahmen werden als Teil der Video-Segment-Beziehung gespeichert.
  • Der kleinere der beiden gespeicherten Zeitcodes wird mit der Pause- und der Wiederaufnahmeaufzeichnung des Original-Fahrzeug-Runs verglichen, um den Teilsatz von Videorahmen zu bestimmen, in dem das Segment aufgezeichnet wurde. Vom Beginn dieses Teilsatzes wird der bekannte Aufzeichnungszyklus verwendet, um die Videoquellensequenznummer für das Segment zu berechnen. Wenn der kleinere der beiden aufgezeichneten Zeitcodes dem Anfangsknoten zugeordnet ist, werden die dem Segment zugeordneten Videobilder in der Richtung des Straßensegments genommen. Wenn der kleinere der beiden aufgezeichneten Zeitcodes dem Endknoten zugeordnet ist, werden die dem Segment zugeordneten Videobilder in eine der Richtung des Straßensegments entgegengesetzte Richtung genommen. Die Video-Segmentrichtung-Beziehung wird als Teil der Video-Segment-Beziehung gespeichert.
  • Nachdem die Video-Segment-Beziehung erzeugt wurde, können die Videosequenzen und Straßensegmente für verschiedene Anwendungen verwendet werden. Gemäß einer solchen Anwendung werden digitale Video-Direktzugriffstechniken verwendet, um die Videosequenz für ein Segment in mehrere kleinere Video bildsätze umzuordnen, die sequentielle Videobilder von einer einzigen Videoquelle enthalten. Jeder derartige Bildsatz ist durch den Run, die Videoquelle und den Anfangs-SMPTE-Zeitcode identifiziert. Es wird eine Querreferenztabelle konstruiert, um jeden Bildsatz mit seiner zugeordneten Straßensegmentidentifizierung in Beziehung zu setzen. Durch Reduzieren des großen Satzes aufgezeichneter digitaler Videobilder in kleinere Sequenzen, die Straßensegmenten zugeordnet sind, wird eine maximale Flexibilität bei der Datenspeicherung ermöglicht. Durch diese Straßensegmentdatenbank können große Mengen digitaler Videobildsätze manipuliert oder gehandhabt werden, und unter Verwendung aktueller Indizierungsmethoden können bis zu 1014 Straßensegmente gemanagt werden.
  • Die Integration von Videobildern mit einem geographischen Informationssystem (GIS) erfordert Vielfachzugriffmethoden für eine effektive Verwendung in einer GIS-Umgebung. Um diese Anforderung zu erfüllen, werden sowohl ein Satz von Segment-Video- als auch von Video-Segment-Beziehungen erzeugt und verwendet, um eine Datenbank zu erzeugen. Außerdem werden mehrere Sekundärbeziehungen von diesen Segment-Videound Video-Segment-Beziehungen erzeugt, um eine breite Vielfalt von GIS-Anwendungen zu ermöglichen.
  • 11 trägt dazu bei, die Erzeugung einer Video-Segment-Beziehung zu verdeutlichen und zeigt ein Straßensegment 250 mit einem Anfangsknoten 252 und einem Endknoten 254. Es sind ein erster Zwischenformpunkt 256 und ein zweiter Zwischenformpunkt 258 dargestellt, die dazu beitragen, das Segment 250 zu definieren und direkt mit dem Anfangsund dem Endknoten 252 und 254 in Beziehung stehen. Eine Folge von Videobildern ist durch Punkte V1–V7 dargestellt, und jedes Videobild hat eine bekannte Position, die bezüglich der geographischen Breite, Länge und Höhe, dem Roll- (Roll-), dem Pitch- (Nick-) und dem Yaw-(Gier-)Winkel definiert ist. Das Videobild V1 steht durch den vorstehend beschriebenen Anpassungsprozeß direkt mit dem Endknoten 254 in Beziehung, und das Videobild V7 steht direkt mit dem Anfangsknoten 252 in Beziehung. Die übrigen Videobilder stehen mit dem Anfangsknoten 252 und dem Endknoten 254 und den Formpunkten 256 und 258 indirekt in Beziehung.
  • Die indirekte Beziehung zwischen den übrigen Videobildern und den Formpunkten 256 und 258 ist im folgenden Beispiel dargestellt. Das Videobild V3 kann bezüglich des Segments 250 als Schnittpunkt mit der Senkrechten zur Line zwischen dem Endknoten 254 und dem zweiten Formpunkt 258 definiert werden. Der Schnittpunkt kann bezüglich einer absoluten Breiten-, Längen- und Höhenposition oder relativ zum Endknoten 254 als negativer Abstand vom Schnittpunkt zum Endknoten 254 dargestellt werden. Die Relativposition des Videobildes V3 kann auch als positiver Abstand vom Anfangsknoten 252 zum Schnittpunkt dargestellt werden, der dem Abstand vom Anfangsknoten 252 zum ersten Formpunkt 256 plus dem Abstand vom ersten Formpunkt 256 zum zweiten Formpunkt 258 plus dem Abstand vom zweiten Formpunkt 258 zum Schnittpunkt gleicht.
  • Weil die Beziehung zwischen den Videopunkten V2–V6 und dem Anfangsknoten 252, dem Endknoten 254 und den Formpunkten 256 und 258 eine unabhängige Beziehung ist, kann eine neue Beziehung leicht erzeugt werden, wenn für das gleiche Segment nachfolgende Video- und Positionsdaten erfaßt wurden. Die neue Beziehung kann zwischen beliebigen neuen Videopunkten und den vorhandenen Formpunkten 256 und 258 durch Erzeugen einer neuen Video-Anfangsknoten(252)-Beziehung und einer neuen Video-Endknoten(254)-Beziehung und Berechnen des Schnittpunkts gemäß der vorstehenden Beschreibung erzeugt werden. D. h., nachdem das Straßensegment einschließlich des Anfangsknotens, des Endknotens und der Formpunkte festgelegt worden ist, muß es nicht aktualisiert werden, und nachfolgende Videobilder können auf die gleiche Weise mit dem Segment in Beziehung gesetzt werden wie die Videobilder V1–V7.
  • Durch Erzeugen einer direkten Beziehung zwischen jedem Knoten und dem nähesten Videobild wird auch eine Segment-Video-Beziehung erzeugt. Aufgrund dieser Beziehung wird ein geordneter Satz von Videobildern einem beliebigen vorgegebenen Segment zugeordnet. Dies ermöglicht einen einfachen Zugriff auf einen Satz Videobilder und auf damit in Beziehung stehende Attributinformation für ein beliebiges vorgegebenes Segment. Daher kann ein Segmentpositionspunkt, der als eine Position relativ zu einem Anfangsknoten oder einem Endknoten dargestellt ist, als eine Absolutposition bezüglich Videobildpositionen dargestellt werden. Dadurch kann das bezüglich einer beliebigen vorgegebenen Segmentposition näheste Videobild bestimmt werden, so daß ein Benutzer eine visuelle Darstellung sowie damit in Beziehung stehende Attributinformation für eine vorgegebene Position untersuchen und prüfen kann. Ähnlich wie bei der Video-Segment-Beziehung sind die Videobildpositionen unabhängig von den Segmentknoten und den Zwischenformpunkten. Daher können die Segmentpositionen auf die gleiche Weise mit Video- und Positionsinformation in Beziehung gesetzt werden, die während nachfolgender Runs erfaßt werden.
  • 12 zeigt mehrere Anwendungen, bei denen die aktualisierten Straßensegment- und Video-Segment-Beziehungsdaten 146 verwendet werden können. Die Anwendungen weisen die Erzeugung und die Aktualisierung von Adressenbereichen 282 und die Integration von Adressenattributinformation 284, die Erzeugung und Pflege von Straßennetztopologien 286, die Erfassung von Fahrzeug-Routenführungsinformation 288, die Erzeugung und Pflege von Grenzpolygontopologien und -attri buten 290 und 292, die exakte Position von Punktmerkmalen und ihren Attributen 294 und 296 und die Integration von Straßensegmentattributen mit anderen GIS-Systemen 298 auf. Diese Anwendungen werden nachstehend ausführlicher diskutiert.
  • In einem Videobild dargestellte Attribute oder Merkmale haben eine erweiterte indirekte Beziehung mit Segmentpositionen. Beispielsweise hat eine (Haus)Adresse eine indirekte Adressen-Segment-Beziehung. Unter Verwendung dieser Beziehung in Kombination mit der indirekten Segment-Video-Beziehung kann auch eine Adressen-Video-Beziehung erzeugt werden. Mit einer derartigen Beziehung kann eine in einem Videobild dargestellte Adresse mit einer berechneten Adresse verglichen werden. Wenn die beiden Adressen nicht identisch sind, kann die visuell beobachtete Adresse verwendet werden, um das Modell zu korrigieren, durch das die Adresse berechnet wurde.
  • Ein anderes Beispiel der Verwendung einer erweiterten Beziehung ist eine Fahrzeug-Routenführung, gemäß der die effiziente Erfassung von Fahrzeug-Routenführungsinformation durch die Video-Segmentdaten-Beziehung wesentlich verbessert wird. Fahrzeug-Routenführungsinformation wird in zwei Kategorien von Knotenattributinformation eingeteilt, die die Beziehung zwischen zwei Segmenten durch einen Knoten definiert, und Segmentattributinformation, die die Eigenschaften der Segmente definiert. Durch Kombinieren dieser beiden Datensätze mit GIS-basierter Routenführungssoftware wird eine genaue Fahrzeugnavigation oder -routenführung ermöglicht.
  • Knotenattributinformation wird durch visuelle Untersuchung der aufgezeichneten Videobilder für jede Kreuzung erfaßt. Jede Durchfahrt durch eine Kreuzung wird als Bewegung von einem spezifizierten Segment durch einen spezifizierten Knoten zu einem anderen spezifizierten Segment gespeichert. Unter Verwendung von Segment-Videodaten-Beziehungen ruft ein Operateur die Videobilder eines beliebigen Ortes in der Umgebung eines Knotens ab. Die abgerufenen Videobilder werden dann visuell untersucht, um das Vorhandensein einer Segment-Segment-Verbindung sowie von Verkehrseinschränkungen oder -regulierengen zu bestimmen. Es wird eine mit Indizes versehene Knotenattributdatenbank erzeugt, um all diese Information für eine spätere Bezugnahme zu speichern.
  • Bei der Erfassung von Segmentattributinformation werden die Videobilder für jedes Segment visuell betrachtet und bezüglich Geschwindigkeitsbeschränkungen, einer Straßentypklassifizierung, einem Einbahnstraßenmerkmal, Gewichts- oder Höhenbeschränkungen und anderen Verkehrsregulierungen ausgewertet. Jedes dieser Attribute wird in einer Segmentattributdatenbank als Anfangs-/Endbereich und bezüglich einer Links- oder Rechtsausrichtung gespeichert. Beispielsweise könnte eine kurze Parkverbotzone als Attribut von einer Relativposition X auf dem Segment bis zum Ende des Segments und auf der geeigneten Straßenseite beschrieben werden.
  • Außerdem können erweiterte Beziehungen verwendet werden, um Relativpunktpositionen zu bestimmen, die Punkte bezeichnen, die mit einem Attribut in Beziehung stehen, das mit einem Segment in Beziehung steht. Um eine Relativpunktposition zu bestimmen, muß bereits ein Attributsatz existieren und durch eine Attribut-Segment-Beziehung mit einem Segment verknüpft sein. Das Attribut, mit dem der Punkt in Beziehung steht, kann durch Betrachten des nähesten Videobildes visuell verifiziert werden. Eine andersartige Punktposition ist eine direkte Videoposition, die die direkte Zuordnung von Attributdaten zur Videorahmenidentifizierung des Videobildes ist, auf dem das Attribut gefunden wird.
  • Die Absolutposition eines Punktes kann unter Verwendung terrestrischer Photogrammetrie gefunden werden. Bei der Pho togrammetrie werden mehrere Bilder verwendet, die einen einzelnen gewählten Bezugspunkt enthalten, um die Position des Punktes bezüglich den die Bilder aufnehmenden Kameras zu triangulieren. Diese Relativposition wird dann in Kombination mit der bekannten Position der Kameras zu dem Zeitpunkt, als das Bild aufgenommen wurde, verwendet, um die Absolutposition des gewählten Punktes zu bestimmen. Nachdem die Absolutposition des Punktes bestimmt wurde, kann damit in Beziehung stehende Attributinformation visuell bestimmt und gespeichert werden. Um dazu beizutragen, die Genauigkeit des Photogrammetrieprozesses zu verbessern, müssen Kameraeigenschaften, z. B. Linsenkalibrierungsinformation und spezifische Kameramontage- und -ausrichtungsinformation, berücksichtigt werden.
  • Die vorliegende Erfindung ermöglicht es, daß der Photogrammetrieprozeß unter Verwendung zweier beliebiger Bilder ausgeführt werden kann, die den gewählten Bezugspunkt enthalten. Dies ist möglich, weil die sechsdimensionale Ortsposition jeder Kamera für jedes aufgenommene Videobild bekannt und aufgezeichnet ist. Daher ist der Abstand zwischen den Positionen, an denen die beiden Bilder aufgenommen wurden, zusammen mit den Ausrichtungen der Kameras, die die Bilder aufgenommen haben, bekannt. Erfindungsgemäß kann daher die Position eines ausgewählten Bezugspunktes unter Verwendung von Bildern bestimmt werden, die durch Kameras aufgenommen wurden, die nicht in der gleichen Ebene liegen, sowie unter Verwendung mehrerer Bilder von einer Kamera. Die Leistungsfähigkeit des Photogrammetrieprozesses unter Verwendung von Bildern von verschiedenen Kameras wird durch die Verwendung einer verschachtelten Bildspeicherung auf dem Videoband unterstützt. Außerdem wird durch die Leistungsfähigkeit des Photogrammetrieprozesses unter Verwendung von Bildern von verschiedenen Kameras ermöglicht, daß Positionen berechnet werden können, nachdem der Datenerfassungsprozeß abgeschlossen ist.
  • Die Fähigkeit, den Photogrammetrieprozeß unter Verwendung von Bildern von zwei beliebigen Kameras auszuführen, stellt eine wesentliche Verbesserung bezüglich des herkömmlichen Stereo-Photogrammetrieverfahrens dar. Durch ein derartiges herkömmliches Verfahren muß eine relativ kurze Basis- oder Bezugslinie zwischen zwei Kameras durch Verwendung hochauflösender Digitalkameras kompensiert werden, wofür außerordentlich große Datenmengen gespeichert werden müssen. Außerdem nimmt, wenn die Position eines Punktes oder Objekts, das sich in einem großen Abstand von den Kameras befindet, berechnet wird, was im Stereo-Photogrammetrieverfahren häufig der Fall ist, die Fehlerwahrscheinlichkeit bei der Positionsberechnung des Objekts wesentlich zu. Das erfindungsgemäße System ermöglicht es, indem zwei beliebige Bilder verwendet werden können, in denen das Objekt gefunden wird, die Position des Objekts unter Verwendung von Bildern zu berechnen, in denen das Objekt sich relativ nahe zur Kamera befindet.
  • Erfindungsgemäß kann eine genaue Adressendatenbank erzeugt werden, und eine vorhandene Datenbank, z. B. eine TIGER/Line-Datei, kann aktualisiert werden. Außerdem kann eine Datenbank unter Verwendung von durch das erfindungsgemäße Verfahren erfaßter und verarbeiteter Information erzeugt werden, so daß einer Adresse zugeordnete Videobilder abgerufen werden können.
  • Auf alle durch das vorstehend beschriebene Verfahren erzeugten Segmente wird durch eine TIGER/Line-Idendifizierungsnummer verwiesen oder Bezug genommen. Durch dieses Bezugsnahmeverfahren wird eine eindeutige Identifizierung für alle Straßensegmente in den Vereinigten Staaten bereitgestellt. Außerdem können der Datenbank gemäß dem TIER/Line- Identifizierungssystem neue Straßen hinzugefügt werden. Dadurch können durch das vorstehend beschriebene Aktualisierungsverfahren erzeugte Straßensegmente mit einer TLID-Identifizierung direkt in Beziehung gesetzt werden. Diese Beziehung ermöglicht es, auf alle in der TIGER/Line-Datei enthaltenen Datenelemente Bezug zu nehmen, so daß eine voll-ständige Kompatibilität der erfindungsgemäß bereitgestellten Datenbank mit diesem nationalen Standard gewährleistet ist.
  • Jede TLID-Identifizierung enthält einen als nomineller Adressenbereich bekannten Gesamtadressenbereich für das Straßensegment, das sie darstellt. Außerdem unterstützt jede TLID-Identifizierung einen linken Adressenbereich und einen rechten Adressenbereich sowie mehrere Teilbereiche. Jede TLID-Identifizierung steht in Beziehung mit den Koordinaten eines Knotens an jedem Ende des Straßensegments, den sie darstellt. Die Koordinaten des Knotens werden als Anfangspunkt des Adressenbereichs innerhalb des Straßensegments verwendet. Daher wird vorausgesetzt, daß die Anfangsadresse jedes nominellen Adressenbereichs sich in der Mitte einer Straßenkreuzung befindet. Für jede spezifische Adresse kann nur eine mögliche Position in der Datenbank vorhanden sein.
  • Unter Verwendung der erfindungsgemäß bereitgestellten Datenbank ist ein Adressen-Parsing-Verfahren möglich. Durch ein Adressen-Parsing-Verfahren wird eine durch einen Benutzer zugeführte Adresse in eine Standardadresse innerhalb der Datenbank umgewandelt, indem sie mit einem realen Adressenbereich in der Datenbank in Übereinstimmung gebracht wird. Dieser Adressenbereich wird mit einer Segment-TLID-Identifizierung, einem relativen TLID-Versatz von einem der Segmentknoten und einer Straßenseite in Beziehung gesetzt. Die Straßenseite, auf der die Adresse sich befindet, ist als Parität der Adresse bekannt.
  • Adressenbereiche werden intern als Versatz vom Anfang jedes Straßensegments gespeichert. Beispielsweise wird der Anfangssegmentknoten als Knoten mit einem Positionsversatz von null betrachtet, während der Endsegmentknoten als Knoten mit einem Positionsversatz von eins betrachtet wird. Die Koordinatenposition einer Adresse basiert auf dem Versatz, der bestimmt wird, indem die durch die Formpunkte definierte gesamte Segmentlänge genommen wird und der Abstand entlang des Segments bestimmt wird. Für jede Adresse wird daher ein Koordinatenpaar und eine Parität für die wahre Adressenposition existieren.
  • Ein Videobild kann für jedes Koordinatenpaar unter Verwendung eines Koordinaten-Videobild-Anpassungssystems abgerufen werden. Die Videoinformation ist unabhängig von der Ortspositionsinformation, und Bildrahmenberechnungen basieren auf der vorstehend diskutierten Segment-Video-Beziehung. Dieses Verfahren ermöglicht den Abruf des bezüglich einem Koordinatenpaar nähesten Videobildes.
  • Ein Adressenbereich kann nach dem Straßensegmentaktualisierungsprozeß konstruiert werden. Die nominellen Adressenbereiche werden von der TIGER/Line-Datei für jeden Straßensegment abgerufen. Das Video für ein vorgegebenes Straßensegment wird dargestellt, und es wird bestimmt, ob ein zusätzlicher Adressenbereich eingefügt werden soll. Die Adressenanpassung wird unter Verwendung der in den TIGER/Line-Dateien gefundenen Information ausgeführt bevor der Adressenbereich konstruiert wird. Diese Information beinhaltet die Identifizierungen für den Anfangsknoten und den Endknoten jedes Segments, die die tatsächlichen Koordinaten der Endpunkte des Segments enthalten. Auf alle Formpunkte, die mit dem Anfangs- und dem Endknoten verknüpft sind, um das Segment zu definieren, würde ebenfalls zugegriffen. Basierend auf den Knoten und Formpunkten wird die Länge des Seg ments berechnet. Die in den TIGER/Live-Dateien gefundene Information beinhaltet außerdem die Anfangs- und die Endadressenbereiche, die den nominellen Adressenbereich für jedes Segment definieren.
  • Der Adressenbereichkonstruktionsprozeß beginnt mit dem Betrachten des Videos für ein Segment. Wenn eine Adresse erfaßt wird, wird der Videorahmen, auf dem sie erfaßt wird, in Bildkoordinaten umgewandelt. Dann wird der tatsächliche Versatz vom Anfangsknoten durch die Video-Segment-Beziehung bestimmt. Der Operateur zeigt an, ob die Adresse vom erwarteten Bereichwert abweicht. Wenn die Adresse nicht abweicht, wird die Parität der Adresse basierend auf der betrachteten Kameraansicht automatisch gespeichert. Die Grobinformation wird dann tabuliert und beinhaltet für jede Adresse den Versatz vom Anfangsknoten, eine Information darüber, ob die Adresse einem erwarteten Bereichwert entspricht oder davon abweicht, die vorausbestimmte Parität und die tatsächliche Parität.
  • Ein nomineller Bereich innerhalb eines Segments kann durch Einfügen eines zusätzlichen Bereichs oder von Abweichungspunkten geteilt werden. Dies tritt am häufigsten auf, wenn neue Straßen hinzugefügt werden. Wenn die neue Straße senkrecht zu einer vorhandenen Straße verläuft, wird die vorhandene Straße geteilt, und für die geteilte Straße werden zwei neue TLID-Identifizierungen unter Verwendung des TLID-Versatzes erzeugt, der durch den durch den Schnittpunkt mit der neuen Straße erzeugten neuen Knoten erzeugt wird. Der Operateur wird dann neue nominelle Adressenbereiche für die beiden neuen Straßensegmente festlegen, und die alten Segmentadressenbereiche werden der geeigneten neuen Segment-TLID-Identifizierung neu zugeordnet. Es wird eine TLID-Identifizierung für die neue Straße erzeugt, und Adressenbe reiche werden ähnlich wie bei der Anfangs-TLID-Verarbeitung verarbeitet.
  • Obwohl beschrieben wurde, daß das Erfassungssystem 10 einen einzigen GPS-Empfänger 24 aufweist, kann das erfindungsgemäße System auch mit zwei oder mehr GPS-Empfängern oder mit einem GPS-Empfänger mit mehreren Antennen betrieben werden. Eine solche Konfiguration kann erwünscht sein, um die Fahrzeugposition häufiger zu aktualisieren, wenn im INS-System 28 ein minderwertigeres Gyroskop verwendet wird. Die Aktualisierungen könnten dann verwendet werden, um Fehler in den durch das INS-System 28 bereitgestellten Meßwerten häufiger zu korrigieren. Außerdem kann das Erfassungssystem 10 einen GPS-Empfänger verwenden, der in der Lage ist, seine Ortsposition mit sechs Freiheitsgraden bereitzustellen. Ortspositionsinformation kann auch durch andere Vorrichtungen bereitgestellt werden, z. B. durch Kilometer- oder Wegstreckenzähler und Druckmeßgeräte, und kann mit den durch den GPS-Empfänger 24 und das INS-System 28 bereitgestellten Ortspositionsdaten korreliert werden.
  • In der Beschreibung wurde dargestellt, daß die Position jeder Kamera durch die Verwendung der aufgezeichneten Ortspositionen des Fahrzeugs 11 bekannt ist. Die Position einer Kamera kann jedoch auch unter Verwendung dreier beliebiger Bilder des gleichen Objekts bestimmt werden, das an GPS-Koordinaten aufgenommen wurde, die nicht auf einer geraden Linie liegen. Diese durch drei solche Bilder bereitgestellte Information würde ausreichen, um die sechsdimensionale Kameraposition zu bestimmen, so daß eine photogrammetrische Analyse ausgeführt werden kann.
  • Obwohl beschrieben wurde, daß das Erfassungssystem 10 nur einen Videorekorder 20 aufweist, kann das System 10 auch so konfiguriert sein, daß es mit zwei oder mehr Videorekordern betreibbar ist. Außerdem kann das Erfassungssystem 10 auf oder in einer beliebigen sich bewegenden Plattform angeordnet sein, die z. B. eine Plattform sein kann, die durch eine einzelne Person getragen werden kann.
  • Obwohl die vorliegende Erfindung unter Bezug auf bevorzugte Ausführungsformen beschrieben worden ist, ist für Fachleute ersichtlich, daß innerhalb des durch die Patentansprüche definierten Schutzbereichs der Erfindung Änderungen in den Ausführungsformen und im Detail vorgenommen werden können.

Claims (17)

  1. Verfahren zum Erfassen visueller und räumlicher Positionsinformation von einer sich bewegenden Plattform, wobei das Verfahren die Schritte aufweist: Erhalten von mit der räumlichen Position und Ausrichtung der sich bewegenden Plattform in Beziehung stehenden räumlicher Positionsdaten; Erhalten von Videobildern von mehreren Videokameras, die durch die sich bewegende Plattform an bekannten Positionen und in bekannten Ausrichtungen bezüglich der sich bewegenden Plattform gehalten werden; Aufzeichnen nicht-koplanarer Videobilder, die zu verschiedenen Zeiten von den Videokameras erhalten werden; Zuordnen einer momentanen räumlichen Position und Ausrichtung der Videokamera, die das Videobild erzeugt hat zu dem Zeitpunkt, an dem das Videobild erhalten wurde, zu jedem aufgezeichneten Videobild basierend auf der räumlichen Position und Ausrichtung der sich bewegenden Plattform und der bekannten Position und Ausrichtung der Videokamera bezüglich der sich bewegenden Plattform; und Bestimmen der Position eines Objektes, das in mindestens zwei der zu unterschiedlichen Zeiten erhaltenen, aufgezeichneten, nicht-koplanaren Videobilder gezeigt ist, basierend auf einer Position des Objektes in jedem dieser aufgezeichneten Bilder und den zugeordneten räumlichen Positionen und Ausrichtungen der Videokameras, die diese Videobilder erzeugt haben.
  2. Verfahren nach Anspruch 1, wobei die Videobilder in einem sequentiellen Zyklus aufgezeichnet werden.
  3. Verfahren nach Anspruch 1, wobei die räumlichen Positionsdaten Daten umfassen, die von einem Empfänger erhalten werden, der auf der sich bewegenden Plattform angeordnet und dazu geeignet ist, Daten von einem Satelliten des GPS-Systems (Global Positioning System) zu empfangen.
  4. Verfahren nach Anspruch 3, wobei die räumlichen Positionsdaten ferner relative räumliche Positionsdaten enthalten, die von einem auf der sich bewegenden Plattform angeordneten Trägheitsnavigationssystem erhalten werden.
  5. Verfahren nach Anspruch 1, wobei der Betrieb der Videokameras synchronisiert ist.
  6. Verfahren nach Anspruch 1, ferner mit dem Schritt zum Zuordnen des Zeitpunkts, an dem das Videobild erhalten wurde, zu jedem aufgezeichneten Videobild.
  7. Verfahren nach Anspruch 1, wobei die mehreren Videokameras so angeordnet und ausgerichtet sind, daß Videobilder vor, hinter und auf jeder Seite der sich bewegenden Plattform aufgenommen werden.
  8. Verfahren nach Anspruch 1, ferner mit dem Schritt zum Ersetzen ausgewählter Daten in einer Datenbank eines geographischen Informationssystems basierend auf den aufgezeichneten Videobildern und der zugeordneten räum lichen Position und Ausrichtung der Videokameras, die die Videobilder erzeugt haben.
  9. Verfahren nach Anspruch 8, wobei die Datenbank Daten umfaßt, die mit den räumlichen Positionen mehrerer Straßensegmente in Beziehung stehen.
  10. Verfahren nach Anspruch 9, wobei das Ersetzen ausgewählter Daten das Ersetzen von Daten umfaßt, die mit einem Anfang und einem Ende eines ausgewählten Straßensegmentes in Beziehung stehen.
  11. Verfahren nach Anspruch 1, wobei die sich bewegende Plattform entlang Straßen bewegt wird, und wobei das Verfahren ferner den Schritt des passenden Zuordnens von Straßensegmenten zu mindestens einem Videobild basierend auf der räumlichen Position und Ausrichtung der dem Videobild zugeordneten Videokamera aufweist.
  12. Verfahren nach Anspruch 1, ferner mit dem Schritt des Verwendens mehrerer der aufgezeichneten, nicht-koplanaren Videobilder zum Bestimmen der Position eines in den mehreren Bildern dargestellten Objekts basierend auf Positionen des Objektes in den aufgezeichneten Bildern und den zugeordneten räumlichen Positionen und Ausrichtungen der Videokameras, die die Videobilder erzeugt haben.
  13. Vorrichtung zum Erfassen von visueller und räumlicher Positionsinformation, wobei die Vorrichtung aufweist: eine sich bewegende Plattform; eine auf der sich bewegenden Plattform angeordnete Einrichtung zum Erzeugen von räumlichen Positionsdaten, die mit der räumlichen Position und Ausrichtung der sich bewegenden Plattform in Beziehung stehen; mehrere auf der sich bewegenden Plattform angeordnete Videokameras, wobei die Videokameras bezüglich der sich bewegenden Plattform an bekannten Positionen und in bekannten Ausrichtungen angeordnet und so ausgerichtet sind, daß sie Bilder von Sichtfeldern vor, hinter, auf einer linken Seite und auf einer rechten Seite der sich bewegenden Plattform aufnehmen; eine Einrichtung zum Aufzeichnen nicht-koplanarer Videobilder, die zu unterschiedlichen Zeitpunkten von den Videokameras erhalten werden; eine Einrichtung zum Zuordnen einer momentanen räumlichen Position und Ausrichtung der Videokamera, die das Videobild erzeugt hat zu dem Zeitpunkt, an dem das Videobild erhalten wurde, zu jedem aufgezeichneten Videobild basierend auf den räumlichen Positionsdaten, die mit der räumlichen Position und Ausrichtung der sich bewegenden Plattform in Beziehung stehen, und der bekannten Position und Ausrichtung der Videokameras bezüglich der sich bewegenden Plattform; eine Einrichtung zum Herleiten von räumlichen Positionsdaten, die mit einem Objekt in Beziehung stehen, das in mindestens zwei der aufgezeichneten Bildern erscheint, die zu verschiedenen Zeitpunkten von den Videokameras erhalten wurden, von: (a) einer Position des Objektes in jedem der aufgezeichneten Bilder und (b) der momentanen räumlichen Position und Ausrichtung der Videokamera, die jedes aufgezeichnete Videobild erzeugt hat zu dem Zeitpunkt, an dem jenes Videobild erhalten wurde.
  14. Vorrichtung nach Anspruch 13, wobei die Einrichtung zum Erhalten von räumlichen Positionsdaten einen Empfänger umfaßt, der dazu geeignet ist, Daten von Satelliten des GPS-Systems zu empfangen.
  15. Vorrichtung nach Anspruch 14, wobei die Einrichtung zum Erhalten von räumlichen Positionsdaten ferner ein Trägheitsnavigationssystem umfaßt.
  16. Vorrichtung nach Anspruch 15, ferner mit einer Synchronisiereinrichtung zum Synchronisieren des Betriebs der Videokameras.
  17. Verfahren zum Erfassen visueller und räumlicher Positionsinformation von einer sich bewegenden Plattform, wobei das Verfahren die Schritte aufweist: Erhalten von räumlichen Positionsdaten, die mit einer räumlichen Position und Ausrichtung der sich bewegenden Plattform in Beziehung stehen; Erhalten von Videobildern von einer ersten Videokamera, die durch die sich bewegende Plattform an einer bekannten Position und in einer bekannten Ausrichtung bezüglich der sich bewegenden Plattform gehalten wird, um Bilder eines ersten Sichtfeldes vor der sich bewegenden Plattform aufzunehmen; Erhalten von Videobildern von einer zweiten Videokamera, die durch die sich bewegende Plattform an einer zweiten bekannten Position und in einer zweiten bekannten Ausrichtung bezüglich der sich bewegenden Plattform gehalten wird, um Bilder eines zweiten Sichtfeldes hinter der sich bewegenden Plattform aufzunehmen; Erhalten von Videobildern von einer dritten Videokamera, die durch die sich bewegende Plattform an einer bekannten Position und in einer bekannten Ausrichtung bezüglich der sich bewegenden Plattform gehalten wird, um Bilder eines dritten Sichtfeldes auf einer linken Seite der sich bewegenden Plattform aufzunehmen; Erhalten von Videobildern von einer vierten Videokamera, die durch die sich bewegende Plattform an einer bekannten Position und in einer bekannten Ausrichtung bezüglich der sich bewegenden Plattform gehalten wird, um Bilder eines vierten Sichtfeldes auf einer rechten Seite der sich bewegenden Plattform aufzunehmen; Aufzeichnen einer Folge nicht-koplanarer Videobilder, die zu unterschiedlichen Zeitpunkten von der ersten, der zweiten, der dritten und der vierten Videokamera aufgenommen wurden; Zuordnen einer momentanen räumlichen Position und Ausrichtung der Videokamera, die das Videobild erzeugt hat zu dem Zeitpunkt, an dem das Videobild erhalten wurde, zu jedem aufgezeichneten Videobild basierend auf der räumlichen Position und Ausrichtung der sich bewegenden Plattform und der bekannten Position und Ausrichtung der Videokamera bezüglich der sich bewegenden Plattform: und Bestimmen der Position eines Objektes, das in mindestens zwei der aufgezeichneten, nicht-koplanaren Videobilder gezeigt ist, die von verschiedenen Videokameras unter der ersten, der zweiten, der dritten und der vierten Videokamera erhalten wurden.
DE69532126T 1994-05-19 1995-05-18 Verfahren zum sammeln und verarbeiten visueller und räumlicher positionsinformation Expired - Lifetime DE69532126T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US24630394A 1994-05-19 1994-05-19
US246303 1994-05-19
PCT/US1995/006232 WO1995032483A1 (en) 1994-05-19 1995-05-18 Method for collecting and processing visual and spatial position information

Publications (2)

Publication Number Publication Date
DE69532126D1 DE69532126D1 (de) 2003-12-18
DE69532126T2 true DE69532126T2 (de) 2004-07-22

Family

ID=22930097

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69532126T Expired - Lifetime DE69532126T2 (de) 1994-05-19 1995-05-18 Verfahren zum sammeln und verarbeiten visueller und räumlicher positionsinformation

Country Status (6)

Country Link
US (1) US5633946A (de)
EP (1) EP0772842B1 (de)
AU (1) AU690693B2 (de)
CA (1) CA2190596C (de)
DE (1) DE69532126T2 (de)
WO (1) WO1995032483A1 (de)

Families Citing this family (205)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0660131A1 (de) * 1993-12-23 1995-06-28 Karl Osen Kamera-Führungssystem
EP0807352A1 (de) 1995-01-31 1997-11-19 Transcenic, Inc Räumlich bezogene fotografie
FR2734911B1 (fr) * 1995-06-01 1997-08-01 Aerospatiale Procede et dispositif pour detecter le mouvement d'une cible et leurs applications
FR2749419B1 (fr) * 1996-05-31 1998-08-28 Sagem Procede et dispositif d'identification et de localisation d'objets fixes le long d'un trajet
US6512857B1 (en) * 1997-05-09 2003-01-28 Sarnoff Corporation Method and apparatus for performing geo-spatial registration
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6741790B1 (en) * 1997-05-29 2004-05-25 Red Hen Systems, Inc. GPS video mapping system
US6201903B1 (en) * 1997-09-30 2001-03-13 Ricoh Company, Ltd. Method and apparatus for pen-based faxing
DE19743705C1 (de) * 1997-10-02 1998-12-17 Ibs Integrierte Business Syste Verfahren zum Sammeln und Verknüpfen von Positionsdaten aus Satellitenortung und weiteren Daten sowie Verwendungen dafür
US6029173A (en) * 1997-11-26 2000-02-22 Navigation Technologies Corporation Method and system for representation and use of shape information in geographic databases
JP3571893B2 (ja) 1997-12-03 2004-09-29 キヤノン株式会社 画像記録装置及び画像記録方法、画像データベース生成装置及び画像データベース生成方法
JPH11168754A (ja) 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
US6078924A (en) * 1998-01-30 2000-06-20 Aeneid Corporation Method and apparatus for performing data collection, interpretation and analysis, in an information platform
US6697103B1 (en) 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
JP3473398B2 (ja) * 1998-05-01 2003-12-02 株式会社日立製作所 地図応用システムおよび地図表示制御方法
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
US6466259B1 (en) 1999-01-04 2002-10-15 Unisys Corporation Collection of video images correlated with spacial and attitude information
DE19910147A1 (de) * 1999-02-26 2000-08-31 Michael Stahl System zum Aufzeichnen und Wiedergeben von Videobildern
US7415510B1 (en) * 1999-03-19 2008-08-19 Shoppertrack Rct Corporation System for indexing pedestrian traffic
CN1367926A (zh) 1999-04-21 2002-09-04 研究投资网络公司 存储在可移动存储媒体上的内容升级的制作的系统、方法及物品
US20050166232A1 (en) * 1999-04-21 2005-07-28 Lamkin Allan B... Presentation of media content from multiple media sources
US20050182828A1 (en) * 1999-04-21 2005-08-18 Interactual Technologies, Inc. Platform specific execution
US20060193606A1 (en) * 1999-04-21 2006-08-31 Interactual Technologies, Inc. Two navigation
US6529949B1 (en) * 2000-02-07 2003-03-04 Interactual Technologies, Inc. System, method and article of manufacture for remote unlocking of local content located on a client device
US20060041639A1 (en) * 1999-04-21 2006-02-23 Interactual Technologies, Inc. Platform detection
US7458091B1 (en) 2000-01-20 2008-11-25 Sonic Solutions, A California Corporation System, method and article of manufacture for a business layer component in a multimedia synchronization framework
US20050198574A1 (en) * 1999-04-21 2005-09-08 Interactual Technologies, Inc. Storyboard
US7346920B2 (en) * 2000-07-07 2008-03-18 Sonic Solutions, A California Corporation System, method and article of manufacture for a common cross platform framework for development of DVD-Video content integrated with ROM content
US6587601B1 (en) 1999-06-29 2003-07-01 Sarnoff Corporation Method and apparatus for performing geo-spatial registration using a Euclidean representation
US7107286B2 (en) * 1999-07-26 2006-09-12 Geoqwest International Inc. Integrated information processing system for geospatial media
US6681231B1 (en) 1999-07-26 2004-01-20 The Real Estate Cable Network, Inc. Integrated information processing system for geospatial media
JP2001094916A (ja) 1999-09-17 2001-04-06 Sony Corp 情報処理方法および装置、並びにプログラム格納媒体
DE19950033B4 (de) 1999-10-16 2005-03-03 Bayerische Motoren Werke Ag Kameravorrichtung für Fahrzeuge
US6674434B1 (en) 1999-10-25 2004-01-06 Navigation Technologies Corp. Method and system for automatic generation of shape and curvature data for a geographic database
US6366851B1 (en) * 1999-10-25 2002-04-02 Navigation Technologies Corp. Method and system for automatic centerline adjustment of shape point data for a geographic database
JP4685313B2 (ja) 1999-12-29 2011-05-18 ジオスパン コーポレイション 任意の局面の受動的な体積画像の処理方法
US7392481B2 (en) * 2001-07-02 2008-06-24 Sonic Solutions, A California Corporation Method and apparatus for providing content-owner control in a networked device
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
US20040220791A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc. A California Corpor Personalization services for entities from multiple sources
FR2803391B1 (fr) * 2000-01-05 2002-05-03 Auscultation Multifonctionnell Procede pour determiner les distances de visibilite d'une voie de circulation
US20050251732A1 (en) * 2000-01-20 2005-11-10 Interactual Technologies, Inc. System, method and article of manufacture for executing a multimedia event on a plurality of client computers using a synchronization host engine
EP3367268A1 (de) * 2000-02-22 2018-08-29 Nokia Technologies Oy Räumliches codieren und anzeigen von informationen
JP2001285894A (ja) * 2000-03-31 2001-10-12 Olympus Optical Co Ltd 3次元画像データの掲載方法
US7668362B2 (en) * 2000-05-03 2010-02-23 Aperio Technologies, Inc. System and method for assessing virtual slide image quality
US20010052873A1 (en) * 2000-06-14 2001-12-20 Rezai Ahmad (Dulce) Global positioning system stamp machine
US6822650B1 (en) * 2000-06-19 2004-11-23 Microsoft Corporation Formatting object for modifying the visual attributes of visual objects to reflect data values
US6674878B2 (en) 2001-06-07 2004-01-06 Facet Technology Corp. System for automated determination of retroreflectivity of road signs and other reflective objects
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
US7779097B2 (en) * 2000-09-07 2010-08-17 Sonic Solutions Methods and systems for use in network management of content
US7689510B2 (en) * 2000-09-07 2010-03-30 Sonic Solutions Methods and system for use in network management of content
US9292516B2 (en) 2005-02-16 2016-03-22 Sonic Solutions Llc Generation, organization and/or playing back of content based on incorporated parameter identifiers
US6622090B2 (en) * 2000-09-26 2003-09-16 American Gnc Corporation Enhanced inertial measurement unit/global positioning system mapping and navigation process
US6895126B2 (en) 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
US6904160B2 (en) * 2000-10-18 2005-06-07 Red Hen Systems, Inc. Method for matching geographic information with recorded images
JP2002135758A (ja) * 2000-10-20 2002-05-10 Yazaki Corp 車載用映像データ伝送システム、車載用映像データ受信装置、車載用映像データ送信装置
US7805442B1 (en) 2000-12-05 2010-09-28 Navteq North America, Llc Method and system for representation of geographical features in a computer-based system
DE10065593A1 (de) * 2000-12-28 2002-07-04 Bosch Gmbh Robert Verfahren und Vorrichtung zum Erzeugen von Straßenabschnittdaten für eine digitale Landkarte
US20020130967A1 (en) * 2000-12-29 2002-09-19 Michael Sweetser Multi-point, concurrent, video display system using relatively inexpensive, closed vehicles
US6385533B1 (en) 2001-01-03 2002-05-07 Navigation Technologies Corp. Method and system using dynamic profiling in a mobile environment for collecting data for a geographic database
US6728392B1 (en) 2001-01-30 2004-04-27 Navigation Technologies Corp. Shape comparison using a rotational variation metric and applications thereof
US6681177B2 (en) 2001-01-30 2004-01-20 Rajashri Joshi Bowing coefficient representation of curvature of geographic features
US7508946B2 (en) 2001-06-27 2009-03-24 Sony Corporation Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus
US6937747B2 (en) * 2001-09-24 2005-08-30 Hewlett Packard Development Company, L.P. System and method for capturing non-audible information for processing
DE10148224A1 (de) * 2001-09-28 2003-04-30 Bosch Gmbh Robert Verfahren und System zur Ermittlung von Kartendaten
US20030081934A1 (en) * 2001-10-30 2003-05-01 Kirmuss Charles Bruno Mobile video recorder control and interface
US7265663B2 (en) 2001-11-28 2007-09-04 Trivinci Systems, Llc Multimedia racing experience system
US20030105558A1 (en) * 2001-11-28 2003-06-05 Steele Robert C. Multimedia racing experience system and corresponding experience based displays
US6590526B1 (en) * 2002-01-25 2003-07-08 Harris Corporation Apparatus for census surveying and related methods
US20030164968A1 (en) * 2002-02-19 2003-09-04 Canon Kabushiki Kaisha Color processing apparatus and method
JP2003263104A (ja) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
US8630526B1 (en) 2002-04-12 2014-01-14 At&T Intellectual Property Ii, L.P. Method of indexing multimedia content by creating database records that include location data
US7152022B1 (en) 2002-04-25 2006-12-19 Rajashri Joshi Application of the ψ-s curve to road geometry extraction and modeling
US6985639B1 (en) 2002-04-26 2006-01-10 Navteq North America, Llc Method for quantifying relative accuracy of database segments
US7243008B2 (en) * 2002-06-11 2007-07-10 Lockheed Martin Automated intel data radio
US7893957B2 (en) * 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US8994822B2 (en) 2002-08-28 2015-03-31 Visual Intelligence Lp Infrastructure mapping system and method
US8483960B2 (en) 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
USRE49105E1 (en) 2002-09-20 2022-06-14 Vi Technologies, Llc Self-calibrated, remote imaging and data processing system
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US20040066391A1 (en) * 2002-10-02 2004-04-08 Mike Daily Method and apparatus for static image enhancement
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
KR100491724B1 (ko) * 2002-10-14 2005-05-27 한국전자통신연구원 공간영상의 효율적인 저장 및 검색을 지원하기 위한공간영상정보시스템 및 그 검색방법
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US7245923B2 (en) * 2003-11-20 2007-07-17 Intelligent Spatial Technologies Mobile device and geographic information system background and summary of the related art
US8060112B2 (en) 2003-11-20 2011-11-15 Intellient Spatial Technologies, Inc. Mobile device and geographic information system background and summary of the related art
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
US7155336B2 (en) * 2004-03-24 2006-12-26 A9.Com, Inc. System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
US7231295B2 (en) * 2004-04-07 2007-06-12 Deere & Company System and method for creating accurate topographical maps using low-drift DGPS
US7590310B2 (en) * 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US20050278386A1 (en) * 2004-06-15 2005-12-15 Geographic Data Technology, Inc. Geospatial information system and method for updating same
US8207964B1 (en) 2008-02-22 2012-06-26 Meadow William D Methods and apparatus for generating three-dimensional image data models
US7929800B2 (en) 2007-02-06 2011-04-19 Meadow William D Methods and apparatus for generating a continuum of image data
US8150617B2 (en) 2004-10-25 2012-04-03 A9.Com, Inc. System and method for displaying location-specific images on a mobile device
WO2006103437A1 (en) * 2005-03-29 2006-10-05 Matthew Emmerson Allen A sytem for displaying images
WO2006121986A2 (en) 2005-05-06 2006-11-16 Facet Technology Corp. Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
JP4086060B2 (ja) * 2005-08-17 2008-05-14 トヨタ自動車株式会社 点列の近似方法および点列の近似装置
US7418341B2 (en) * 2005-09-12 2008-08-26 Intelligent Spatial Technologies System and method for the selection of a unique geographic feature
US8942483B2 (en) 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
US8538676B2 (en) * 2006-06-30 2013-09-17 IPointer, Inc. Mobile geographic information system and method
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
JP4800163B2 (ja) 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
DE102006052482A1 (de) * 2006-11-07 2008-05-08 Robert Bosch Gmbh Verfahren zum Aktualisieren einer Datenbank
WO2008076927A2 (en) * 2006-12-14 2008-06-26 Nielsen Media Research, Inc. Methods and apparatus to monitor consumer activity
US8593518B2 (en) * 2007-02-01 2013-11-26 Pictometry International Corp. Computer system for continuous oblique panning
US8520079B2 (en) * 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
US20080198221A1 (en) * 2007-02-20 2008-08-21 Chii-Moon Liou Satellite-receiver equipped video monitoring device
CN101275854A (zh) * 2007-03-26 2008-10-01 日电(中国)有限公司 更新地图数据的方法和设备
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
WO2008128348A1 (en) 2007-04-22 2008-10-30 Ilookabout Inc. Method of obtaining geographically related images using a vehicle
US8385672B2 (en) * 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US20080309762A1 (en) * 2007-06-12 2008-12-18 Richie Howard In-vehicle mobile digital video surveillance recorder system with GPS visual mapping and navigation
JP5024668B2 (ja) * 2007-07-10 2012-09-12 富士ゼロックス株式会社 画像形成装置および情報処理装置
US7991226B2 (en) * 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
US8531472B2 (en) 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US20090167786A1 (en) * 2007-12-24 2009-07-02 Ronald Stanions Methods and apparatus for associating image data
ES2306616B1 (es) 2008-02-12 2009-07-24 Fundacion Cidaut Procedimiento de determinacion de la luminancia de señales de trafico y dispositivo para su realizacion.
US8497905B2 (en) * 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren
US9736368B2 (en) 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
US10896327B1 (en) 2013-03-15 2021-01-19 Spatial Cam Llc Device with a camera for locating hidden object
US10354407B2 (en) 2013-03-15 2019-07-16 Spatial Cam Llc Camera for locating hidden objects
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
US9288268B2 (en) 2008-06-30 2016-03-15 The Nielsen Company (Us), Llc Methods and apparatus to monitor shoppers in a retail environment
US8155433B2 (en) 2008-07-10 2012-04-10 Goodrich Corporation Method of object location in airborne imagery using recursive quad space image processing
US8284995B2 (en) * 2008-07-16 2012-10-09 Volkswagen Of America, Inc. Method for updating a geographic database for an in-vehicle navigation system
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US8893026B2 (en) * 2008-11-05 2014-11-18 Pierre-Alain Lindemann System and method for creating and broadcasting interactive panoramic walk-through applications
CA2748031A1 (en) * 2008-12-22 2010-07-01 Intelligent Spatial Technologies, Inc. System and method for linking real-world objects and object representations by pointing
JP5539388B2 (ja) * 2008-12-22 2014-07-02 インテリジェント スペイシャル テクノロジーズ,インク. 基準オブジェクトをポインティングすることにより3dシーンを探索するシステム及び方法
CA2748026A1 (en) * 2008-12-22 2010-07-01 Intelligent Spatial Technologies, Inc. System and method for initiating actions and providing feedback by pointing at object of interest
US8483519B2 (en) * 2008-12-22 2013-07-09 Ipointer Inc. Mobile image search and indexing system and method
US8698875B2 (en) 2009-02-20 2014-04-15 Google Inc. Estimation of panoramic camera orientation relative to a vehicle coordinate frame
US20100235078A1 (en) * 2009-03-12 2010-09-16 Microsoft Corporation Driving directions with maps and videos
US8239277B2 (en) 2009-03-31 2012-08-07 The Nielsen Company (Us), Llc Method, medium, and system to monitor shoppers in a retail or commercial establishment
AU2010242540B2 (en) 2009-05-01 2016-01-14 Technological Resources Pty. Limited Integrated automation system
CN102439624A (zh) * 2009-05-01 2012-05-02 悉尼大学 具有图像编纂系统的集成式自动化系统
CA2760724C (en) 2009-05-01 2017-01-24 The University Of Sydney Control system for autonomous operation
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
US8897541B2 (en) * 2009-09-14 2014-11-25 Trimble Navigation Limited Accurate digitization of a georeferenced image
US9324003B2 (en) 2009-09-14 2016-04-26 Trimble Navigation Limited Location of image capture device and object features in a captured image
WO2011041618A2 (en) * 2009-09-30 2011-04-07 Darby George Derrick Jr Visual organization of information via associated geospatial data
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US9497581B2 (en) 2009-12-16 2016-11-15 Trimble Navigation Limited Incident reporting
WO2011094760A2 (en) 2010-02-01 2011-08-04 Eagle View Technologies Geometric correction of rough wireframe models derived from photographs
US8477190B2 (en) 2010-07-07 2013-07-02 Pictometry International Corp. Real-time moving platform management system
US8063797B1 (en) * 2010-07-31 2011-11-22 ParkMe LLC Parking information collection system and method
US9058633B2 (en) 2010-10-25 2015-06-16 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US20120101784A1 (en) 2010-10-25 2012-04-26 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US9846848B2 (en) 2010-10-25 2017-12-19 Trimble Inc. Exchanging water allocation credits
US8768667B2 (en) 2010-10-25 2014-07-01 Trimble Navigation Limited Water erosion management incorporating topography, soil type, and weather statistics
US8855937B2 (en) 2010-10-25 2014-10-07 Trimble Navigation Limited Crop characteristic estimation
US9213905B2 (en) 2010-10-25 2015-12-15 Trimble Navigation Limited Automatic obstacle location mapping
US10115158B2 (en) 2010-10-25 2018-10-30 Trimble Inc. Generating a crop recommendation
US9472097B2 (en) 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
WO2012068064A1 (en) 2010-11-15 2012-05-24 Image Sensing Systems, Inc. Hybrid traffic sensor system and associated method
US8823732B2 (en) 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
US8494553B2 (en) * 2011-01-11 2013-07-23 Qualcomm Incorporated Position determination using horizontal angles
US10145960B2 (en) * 2011-02-24 2018-12-04 Ford Global Technologies, Llc System and method for cell phone restriction
US10325350B2 (en) 2011-06-10 2019-06-18 Pictometry International Corp. System and method for forming a video stream containing GIS data in real-time
US8671741B2 (en) 2011-06-29 2014-03-18 Trimble Navigation Limited Extendable moisture content sensing system
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US8774525B2 (en) 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
US9916539B2 (en) 2012-06-18 2018-03-13 The University Of Sydney Systems and methods for processing geophysical data
US9363462B2 (en) 2012-11-13 2016-06-07 David Yoel System and method for simultaneous display of multiple geo-tagged videos of a particular geographical location
US9244272B2 (en) 2013-03-12 2016-01-26 Pictometry International Corp. Lidar system producing multiple scan paths and method of making and using same
US9881163B2 (en) 2013-03-12 2018-01-30 Pictometry International Corp. System and method for performing sensitive geo-spatial processing in non-sensitive operator environments
US9275080B2 (en) 2013-03-15 2016-03-01 Pictometry International Corp. System and method for early access to captured images
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
US9753950B2 (en) 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US9269150B1 (en) 2013-11-22 2016-02-23 Google Inc. Using pose data and positioning information to locate online photos of a user
CA2935457C (en) 2014-01-10 2022-08-09 Pictometry International Corp. Unmanned aircraft structure evaluation system and method
US9292913B2 (en) 2014-01-31 2016-03-22 Pictometry International Corp. Augmented three dimensional point collection of vertical structures
CA2938973A1 (en) 2014-02-08 2015-08-13 Pictometry International Corp. Method and system for displaying room interiors on a floor plan
US9569693B2 (en) * 2014-12-31 2017-02-14 Here Global B.V. Method and apparatus for object identification and location correlation based on received images
US10311302B2 (en) 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
US10880474B1 (en) 2015-09-24 2020-12-29 Surveying And Mapping, Llc Systems and methods for mobile imaging
US10402676B2 (en) 2016-02-15 2019-09-03 Pictometry International Corp. Automated system and methodology for feature extraction
US10671648B2 (en) 2016-02-22 2020-06-02 Eagle View Technologies, Inc. Integrated centralized property database systems and methods
US10628802B2 (en) 2016-05-19 2020-04-21 Lockheed Martin Corporation Systems and methods for assessing damage to infrastructure assets
US10032267B2 (en) 2016-06-09 2018-07-24 Lockheed Martin Corporation Automating the assessment of damage to infrastructure assets
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109146898B (zh) * 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
US11200353B2 (en) 2018-12-21 2021-12-14 Geospan Corporation Geographic information system for creating 3D structure models using perspective view drafting
EP4133235A4 (de) 2020-04-10 2024-04-03 Cape Analytics Inc System und verfahren zur geocodierung
US11222426B2 (en) 2020-06-02 2022-01-11 Cape Analytics, Inc. Method for property feature segmentation
US11367265B2 (en) 2020-10-15 2022-06-21 Cape Analytics, Inc. Method and system for automated debris detection
US11875413B2 (en) 2021-07-06 2024-01-16 Cape Analytics, Inc. System and method for property condition analysis
US11913345B2 (en) 2021-07-26 2024-02-27 General Electric Company System and method of using a tool assembly
US11861843B2 (en) 2022-01-19 2024-01-02 Cape Analytics, Inc. System and method for object analysis

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4814711A (en) * 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4857902A (en) * 1987-05-14 1989-08-15 Advanced Interaction, Inc. Position-dependent interactivity system for image display
US5270694A (en) * 1987-05-14 1993-12-14 Advanced Interaction, Inc. Content addressable video system for image display
US5189402A (en) * 1987-05-14 1993-02-23 Advanced Interaction, Inc. Content addressable video system for image display
JPS6441385A (en) * 1987-08-06 1989-02-13 Pioneer Electronic Corp Recording and reproducing method
IE61778B1 (en) * 1989-01-04 1994-11-30 Emyville Enterprises Image processing
DE69004972T2 (de) * 1989-01-06 1994-05-19 Teleatlas International B V Verfahren zum Einrichten und zur Aktualisierung der Datei für den Strassenverkehr.
US5214757A (en) * 1990-08-07 1993-05-25 Georesearch, Inc. Interactive automated mapping system
US5251156A (en) * 1990-08-25 1993-10-05 Carl-Zeiss-Stiftung, Heidenheim/Brenz Method and apparatus for non-contact measurement of object surfaces
US5313306A (en) * 1991-05-13 1994-05-17 Telerobotics International, Inc. Omniview motionless camera endoscopy system
US5359363A (en) * 1991-05-13 1994-10-25 Telerobotics International, Inc. Omniview motionless camera surveillance system
US5185667A (en) * 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
JP2611592B2 (ja) * 1991-12-09 1997-05-21 三菱電機株式会社 移動体用ナビゲーション装置及びその表示方法
US5251037A (en) * 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
IL103108A (en) * 1992-09-08 1999-12-22 Mul T Lock Ltd Mobile communication systems
US5331413A (en) * 1992-09-28 1994-07-19 The United States Of America As Represented By The United States National Aeronautics And Space Administration Adjustable control station with movable monitors and cameras for viewing systems in robotics and teleoperations
JP2934360B2 (ja) * 1993-02-12 1999-08-16 三菱電機株式会社 映像信号処理装置
US5413345A (en) * 1993-02-19 1995-05-09 Nauck; George S. Golf shot tracking and analysis system

Also Published As

Publication number Publication date
EP0772842A1 (de) 1997-05-14
DE69532126D1 (de) 2003-12-18
AU690693B2 (en) 1998-04-30
EP0772842B1 (de) 2003-11-12
CA2190596C (en) 2002-03-26
US5633946A (en) 1997-05-27
EP0772842A4 (de) 1998-11-18
CA2190596A1 (en) 1995-11-30
AU2553795A (en) 1995-12-18
WO1995032483A1 (en) 1995-11-30

Similar Documents

Publication Publication Date Title
DE69532126T2 (de) Verfahren zum sammeln und verarbeiten visueller und räumlicher positionsinformation
DE69833089T2 (de) Panorama-Bilderzeugungssystem
EP1019671B1 (de) Verfahren zum sammeln und verknüpfen von positionsdaten aus satellitenortung und weiteren daten
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE69818889T2 (de) Vorrichtung und System zum Etikettieren digitaler Bilder
DE112018006665T5 (de) Verfahren zum zugreifen auf ergänzende wahrnehmungsdaten von anderen fahrzeugen
EP3410405A1 (de) Verfahren zur darstellung von virtueller information in einer ansicht einer realen umgebung
DE10228327A1 (de) Automatische Registrierung von Bildern in digitalen Gelände-Höhen-Daten
EP1673589A1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
JP2003287434A (ja) 画像情報検索システム
DE102007054950A1 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
EP3227159B1 (de) Verfahren zur bestimmung der position eines fahrzeugs
DE102019216548A1 (de) Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks
DE19841262C2 (de) Elektronische Schaltung zur Aufzeichnung von geografischen Positionsdaten auf dem Tonkanal eines Camcorders
DE102004028736A1 (de) Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
DE102016222319A1 (de) 3d-referenzierung
WO2014198548A1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
DE19948544A1 (de) Vorrichtung und Verfahren zur terrestrischen digitalen Photogrammetrie mittels einer Orientierungsplattform
DE112019004282T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE102006040493B4 (de) Verfahren und Vorrichtungen sowie Computerprogramm zur Erfassung und Nutzung richtungsbezogener Information eines Objekts
DE102018205142A1 (de) Verfahren zur Erfassung einer aktuellen Position eines Kraftfahrzeugs, Vorrichtung zur Durchführung des Verfahrens und Kraftfahrzeug
KR102358547B1 (ko) 유동성을 지닌 mms의 실측치 실시간 보정을 통한 수집데이터 출력시스템
WO2017182021A1 (de) Verfahren und system zur darstellung einer simulationsumgebung
WO2008058928A1 (de) Verfahren zum orten eines objekts
DE102017215811A1 (de) Verfahren zum Erstellen von Straßenbildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition