-
Hintergrund
der Erfindung
-
Die vorliegende Erfindung betrifft
ein Verfahren zum Verwenden integrierter Video- und räumlicher oder
Ortspositionsinformation zum Aufrechterhalten bzw. Pflegen und Erweitern
von Information in einem geographischen Informationssystem. Das
Verfahren weist eine Hochgeschwindigkeitserfassung von Video- und Ortspositionsdaten
sowie eine schnelle und effiziente Datenspeicherung auf. Ein derartiges
Verfahren ist insbesondere bei der Aktualisierung der TIGER/LineTM-Dateien des Statistischen Bundesamtes
der USA zum Verbessern der Genauigkeit darin enthaltener Koordinaten,
zum Hinzufügen
fehlender Straßen-
und Adresseninformation und zum Hinzufügen von Fahrzeug-Routenführungsdaten
geeignet. Das Verfahren kann auch dazu verwendet werden, für Bereiche,
in denen solche Dateien noch nicht existieren, Dateien zu erzeugen,
die TIGER/Line-Dateien ähnlich
sind.
-
Die TIGER/Line-Dateien sind eine
computerlesbare geographische Datenbank der Vereinigten Staaten.
Die Originalquellen der Datenbank sind z. B. geologische Vermessungskarten
der Vereinigten Staaten, die DIME-Dateien des Statistischen Bundesamtes
der USA von 1980 und verschiedene andere Quellen. Obwohl diese geographischen
Dateien als Basis für
ein geographisches Informationssystem verwendbar sind, sind sie für bestimmte
Anwendungen, bei denen eine hohe Positionsgenauigkeit erforderlich
ist, nicht empfehlenswert. Dies ist der Fall, weil die Positionsgenauigkeit
der in der Datei enthaltenen Information durch den Maßstab der geologischen
Vermessungskarten der Vereinigten Staaten begrenzt ist, von denen
die Dateien erzeugt werden.
-
Außerdem ist die in den TIGER/Line-Dateien
enthaltene Information nur so vollständig und genau, wie die durch
das Statistische Bundesamt der USA verwendeten Dokumente, so daß in der
Zusammenstellung oder Sammlung und Übersetzung von Information
von Quellendokumenten häufig
Fehler erzeugt werden. Außerdem
ist die Information nur so aktuell wie das Jahr, in dem die Quellendokumente
gesammelt und übersetzt wurden.
-
Weil die in einem geographischen
Informationssystem, z. B. in den TIGER/Line-Dateien, enthaltene Information
kontinuierlich aktualisiert werden muß, um die neuesten Änderungen
in der darin enthaltenen Information zu berücksichtigen, ist es wünschenswert,
ein Verfahren zum Erfassen und Verarbeiten von Video- und Ortspositionsinformation
auf eine Weise bereitzustellen, die es ermöglicht, aktualisierte Attributinformation in
bereits erhaltene Ortspositionsinformation einzubinden oder zu integrieren.
-
Gemäß einem Verfahren zum Erfassen
exakter Ortspositionsinformation wird das GPS-System (Global Positioning
System) verwendet. Das GPS-System ist ein Netz von Satelliten, die
zu bekannten, präzisen Zeiten
konstant ihre Position übertragen.
Weil die Orbitalposition jedes Satelliten bekannt ist, kann ein GPS-Empfänger auf
der Erdoberfläche
die Zeit exakt messen, die ein ausgesendetes Signal benötigt, um
die Empfängerposition
auf der Erde zu erreichen. Durch diese Messung wird der Abstand
zwischen dem Satelliten und dem Empfänger bestimmt. Um eine dreidimensionale
Position zu erhalten, führt
der GPS-Empfänger
diese Messung bezüglich
mindestens vier einzelnen, die Erde umkreisenden Satelliten aus.
Unter Verwendung geometrischer Prinzipien kann die durch den GPS-Empfänger erfaßte Information
zum Berechnen des Abstands jedes Satelliten bezüglich des Empfängers und
damit zum Berechnen einer exakten Ortspositionsinformation auf der
Erde verwendet werden.
-
Obwohl durch das GPS-System exakte
Ortspositionsinformation bereitgestellt werden kann, treten Probleme
auf, wenn der GPS-Empfänger
nicht in der Lage ist, Information von mindestens vier Satelliten
zu empfangen. Dies tritt auf, wenn der GPS-Empfänger durch geographische Merkmale
oder Strukturen, z. B. Canyons oder Klippen, sowie durch durch Menschen
erzeugte Strukturen behindert wird. Probleme treten auch dann auf,
wenn ein durch einen die Erde umkreisenden Satellit übertragenes
Signal von einem nahen Objekt reflektiert wird, wodurch der GPS-Empfänger einen
oder mehrere fehlerhafte Werte von diesem Satellit erhält.
-
Ein weiteres Problem bei der Verwendung
des GPS-Systems zum Bereitstellen von Ortsinformation besteht darin,
daß die
Ortspositionswerte durch den GPS-Empfänger häufig mit einer relativ niedrigen
Rate bereitgestellt werden.
-
Ein Beispiel eines herkömmlichen
Systems ist von Frank Lee in "GPS
4 Video data collection in Los Angeles county – a status report", PLANS, Las Vegas,
11.–15.
April 1999, 11. April 94, Seiten 388–393, IEEE beschrieben.
-
Kurze Beschreibung
der Erfindung
-
Durch die vorliegende Erfindung wird
ein Verfahren zum Erfassen und Verarbeiten von Video- und Ortspositionsinformation
zum Erstellen einer geographischen Informationsdatenbank bereitgestellt.
Die Datenbank kann weiterverarbeitet werden, um zusätzliche
Datenbanken zu erzeugen, die für
verschiedenartige Anwendungen verwendbar sind, z. B. zum Ermöglichen
eines Zugriffs auf visuelle Bilder von Straßen und ihren Umgebungen. Außerdem kann
die durch das erfindungsge mäße Verfahren
erfaßte
und verarbeitete Information zum Aktualisieren der TIGER/Line-Computerkartendateien
des Statistische Bundesamtes der USA verwendet werden, um die Genauigkeit
der Dateien zu verbessern und Information hinzuzufügen.
-
Erfindungsgemäß wird ein Erfassungssystem
mit Videokameras, einem GPS-Empfänger,
einem inertialen oder Trägheitsnavigationssystem
(INS) und einem Steuercomputer bereitgestellt. Das Erfassungssystem
ist in einem sich bewegenden Fahrzeug, z. B. in einem Van, installiert.
Der GPS-Empfänger
führt dem Steuercomputer
satelliten-basierte Ortspositionsinformation und exakte Zeitwerte
zu, während
das INS-System dem Steuercomputer kinematisch-basierte Ortspositionsinformation
zuführt.
Gleichzeitig zeichnet ein durch den Steuercomputer gesteuerter Videorekorder
verschachtelte Videobilder, die von den Videokameras erhalten werden,
auf ein einzelnes Videoband auf.
-
Jeder Rahmen bzw. jedes Bild des
Videobandes weist einen ihm zugeordneten Zeitcode auf. Dieser Zeitcode
wird durch den Steuercomputer zusammen mit der aktuellen Ortspositionsinformation
aufgezeichnet, die durch den GPS-Empfänger und
das INS-System zu dem Zeitpunkt bereitgestellt werden, an dem der
Rahmen aufgezeichnet wird. Auf diese Weise kann jedes aufgezeichnete
Videobild mit der Ortsposition der Kamera zu dem Zeitpunkt, an dem
das Bild aufgezeichnet wurde, korreliert werden.
-
Ein GPS-Empfänger ist an einer bekannten
Position angeordnet und stellt absolute Ortspositionsinformation
und absolute Zeitwerte bereit, die von den gleichen GPS-Satelliten
erhalten werden, die durch den GPS-Empfänger im Datenerfassungssystem
verwendet werden. Die Positionsinformation wird verwendet, um durch
ein als differentielle Verarbeitung be kanntes Verfahren Ortsfehler
in der aufgezeichneten GPS-Ortspositionsinformation
zu eliminieren.
-
Zum Bestimmen der wahren Mittellinie
jeder Straße,
für die
Daten erfaßt
wurden, wird eine Mittellinienversatzverarbeitung verwendet. Die
Mittellinien werden verwendet, um in einem als Straßensegmentierungsprozeß bezeichneten
Prozeß Straßensegmente
zu erzeugen, und jedem Straßensegment
wird eine Sequenz von Videobildern zugeordnet. Die Beziehung zwischen
jedem Segment und den zugeordneten Videobildern wird in einer Datenbank
gespeichert. Zusätzliche
Attributinformationsdatenbanken können u. a. für eine Adressenlokalisierungs-,
eine Fahrzeug-Routenführungs-
und eine Ortslokalisierungsanwendung erzeugt werden.
-
Weil durch das erfindungsgemäße Verfahren
die Ortsposition zu dem Zeitpunkt aufgezeichnet wird, an dem ein
entsprechendes Videobild aufgezeichnet wird, können die Videobilder später so oft
wie erforderlich betrachtet und geprüft werden, um die Genauigkeit
und Vollständigkeit
der darin dargestellten Attribute oder Merkmale zu bestätigen. Außerdem ermöglicht die
vorliegende Erfindung, weil durch das INS-System sechsdimensionale
Ortspositionsinformation bereitgestellt wird, die exakte Bestimmung
der Position bzw. Lokalisierung eines Punktes bzw. Ortes anhand
zweier beliebiger Videobilder, die den Punkt bzw. Ort enthalten.
-
Kurze Beschreibung
der Zeichnungen
-
1 zeigt
eine perspektivische Ansicht eines Fahrzeugs, in dem das erfindungsgemäße Sammel- bzw.
Erfassungssystem angeordnet werden kann;
-
2 zeigt
ein schematisches Diagramm des erfindungsgemäßen Erfassungssystems;
-
3 zeigt
ein schematisches Diagramm eines Teils des erfindungsgemäßen Bilderfassungssystems;
-
4 zeigt
ein schematisches Diagramm eines Teils des erfindungsgemäßen Bilderfassungssystems;
-
5 zeigt
eine durch das Trägheitsnavigationssystem
bereitgestellte sechsdimensionale Relativposition des Fahrzeugs;
-
6 zeigt
ein schematisches Diagramm von Dateneinund -ausgabeeinrichtungen
des erfindungsgemäßen Erfassungssystems;
-
7 zeigt
eine Folge von erfindungsgemäß ausgeführten Arbeitsschritten;
-
8 zeigt
die Weise, auf die ein Straßenmittellinienabschnitt
bestimmt wird;
-
9 zeigt
ein durch das erfindungsgemäße Verfahren
erzeugtes Straßensegment;
-
10 zeigt
einen Abschnitt eines durch das erfindungsgemäße Verfahren erzeugten Straßensegments;
-
11 zeigt
eine Beziehung zwischen einer Folge aufgezeichneter Videobilder
und einem Straßensegment;
und
-
12 zeigt
ein schematisches Diagramm mehrerer Möglichkeiten der Verwendung
aktualisierter Straßensegmente.
-
Ausführliche
Beschreibung der bevorzugten Ausführungsformen
-
Durch das erfindungsgemäße Verfahren
wird durch ein Erfassungssystem 10 exakte visuelle bzw.
Video- und Positionsinformation auf eine schnelle und effiziente
Weise gesammelt bzw. erfaßt.
Die Information wird dann für
eine Verarbeitung nach dem Erfassungsvorgang gespeichert, wodurch
die Daten in einem geeigneteren bzw. leichter verwendbarem Format
angeordnet werden. Nach der Verarbeitung werden verschiedene Extraktionsprozesse
verwendet, um verschiedenartige geographische/Informationsdatenbanken
zu erzeugen. Dies wird teilweise durch Erzeugen von Straßensegmenten
und Erzeugen indirek ter Beziehungen zwischen den Segmenten und aufgezeichneten
Videodaten realisiert. Im allgemeinen ist das Erfassungssystem 10,
wie in 1 dargestellt,
auf einer sich bewegenden Plattform, z. B. auf einem sich bewegenden
Fahrzeug 11, angeordnet.
-
Das Erfassungssystem 10 zum
Erfassen von Video- und Positionsinformation ist in 2 dargestellt und weist einen Landbezugspunktabbildungscomputer 12,
einen Datenerfassungssteuercomputer 16, einen Videorekorder 20,
ein Bildsteuerungssystem 22 mit einem digitalen Matrix-Router 23,
einen GPS-Empfänger 24 und
ein Trägheitsnavigationssystem
(INS) 28 auf. Außerdem
weist das Erfassungssystem 10 einen ersten Computermonitor 30,
einen zweiten Computermonitor 32, eine Tastatur 36,
einen Auswahlschalter 38 und einen Trackball oder eine
Rollkugel 40 auf. Jede dieser Komponenten ist im sich bewegenden
Fahrzeug 11 angeordnet. Mehrere im Fahrzeug 11 angeordnete
Batterien führen
den Erfassungssystemkomponenten auch dann Leistung zu, wenn der
Motor nicht läuft.
Den Komponenten wird unter Verwendung eines Wechselrichters Wechselspannung
zugeführt.
Das Erfassungssystem 10 weist außerdem einen GPS-Basis-Empfänger 42 auf, der
an einer bekannten, festen Position getrennt von den übrigen Komponenten
des Erfassungssystems 10 angeordnet ist.
-
Der Steuercomputer ist mit dem Videorekorder 20,
dem digitalen Matrix-Router 23, dem GPS-Empfänger 24,
dem INS-System 28 und
dem Abbildungscomputer 12 verbunden. Die Tastatur 36 wird
durch den Auswahlschalter 38 sowohl mit dem Steuercomputer 16 als
auch mit dem Abbildungscomputer 12 selektiv verbunden.
Außerdem
ist die Rollkugel 40 mit dem Abbildungscomputer 12 elektrisch
verbunden. Der erste Computermonitor 30 ist mit dem Abbildungscomputer 12 verbunden,
während
der zweite Computermonitor 32 mit dem Steuercomputer 16 verbunden
ist.
-
Der Datenerfassungssteuercomputer 16 führt einen
Satz verschachtelte, asynchrone Unterbrechungsverarbeitungsroutinen
aus, um eine Echtzeitsteuerung aller Datenerfassungskomponenten
zu ermöglichen.
Der Steuercomputer 16 steuert die Signalweiterleitung (Routing)
aller erfaßten
Daten sowie die Aufzeichnung der Daten durch den Videorekorder 20.
Ein Videokomponentencontroller 44, z. B. ein Controller
des Typs Video Logic V-LANTM, ist im Steuercomputer 16 angeordnet
und steuert den Videorekorder 20, während er aufzeichnet. Der Videokomponentencontroller 44 ist über eine
serielle RS-422-Kommunikationsleitung
mit dem Videorekorder 20 verbunden.
-
Sowohl der GPS-Empfänger 24 als
auch das INS-System 28 sind durch RS-232-Kommunikationsleitungen
mit dem Steuercomputer 16 verbunden und führen dem
Computer 16 räumliche
bzw. Ortspositionsinformation zu. Der GPS-Empfänger 24 erfaßt, verfolgt
und wählt
automatisch die für
Positions- und Zeitberechnungen zu verwendenden Satelliten und führt dem
Steuercomputer 16 Positionswerte mit einer Rate von etwa drei
Positionswerten pro Sekunde zu. Das INS-System 28 führt dem
Steuercomputer 16 Relativpositionen mit einer Rate von
etwa dreißig
Positionen pro Sekunde zu. Die durch den Steuercomputer 16 empfangene(n)
Positionsinformation bzw. Positionsdaten werden an eine Festplatte übertragen,
um sie permanent zu speichern. Sowohl der Abbildungscomputer 12 als
auch der Steuercomputer 16 weisen ein Sicherungsband zum
Sichern der erfaßten
Daten auf.
-
Der Landbezugspunktabbildungscomputer 12 führt die
Position des sich bewegenden Fahrzeugs 11 in Echtzeit nach.
Dies wird durch eine RS-232-Kommunikationsleitung zwischen dem Abbildungscomputer 12 und
dem Steuercomputer 16 ermöglicht, so daß dem Abbildungscomputer 12 Positionsinformation
zugeführt werden
kann. Auf dem ersten Computermonitor 30 wird eine Straßenkarte
dargestellt, die die aktuelle und die vorangehende Position des
Fahrzeugs 11 zeigt. Die Karte basiert anfangs auf TIGER/Line-Dateien
des Statistischen Bundesamtes (US Consens Bureau) der USA. Der Abbildungscomputer 12 dient
daher als Navigationshilfe zur Routenführung des sich bewegenden Fahrzeugs 11 während des
Datenerfassungsvorgangs.
-
Die 3 und 4 zeigen jeweils einen Teil
des erfindungsgemäßen Bildsteuerungssystems 22,
das zur einfacheren Darstellung nicht vollständig in einer einzigen Figur
dargestellt ist. 3 zeigt
den Teil des Bildsteuerungssystems 22, in dem die Videosignale
weitergeleitet werden. Dieser Teil des Bildsteuerungssystems 22 weist
den digitalen Matrix-Router 23, zehn Videokameras 50A, 50B, 50C, 50D, 50E, 50F, 50G, 50H, 50I und 50J (die
zusammengefaßt
durch das Bezugszeichen 50 bezeichnet werden), vier Videomonitore 54A, 54B, 54C, 54D (die
zusammengefaßt
durch das Bezugszeichen 54 bezeichnet werden), einen Vierfachansichtgenerator 62,
eine Zeitbasiskorrektureinrichtung 64, ein Vektorskop 68 und
zehn Videokamerasteuerungseinheiten 70A, 70B, 70C, 70D, 70E, 70F, 70G, 70H, 70I und 70J auf
(die zusammengefaßt
durch das Bezugszeichen 70 bezeichnet werden). Jede der
Videokameras 50 ist im sich bewegenden Fahrzeug 11 an einer
bekannten Position bezüglich
des GPS-Empfängers 24 angeordnet
und so ausgerichtet, daß eine
gewünschte
Ansicht bzw. ein gewünschtes
Sichtfeld aufgenommen wird. Die Orientierung bzw. Ausrichtung der Videokameras 50 ist
folgendermaßen:
-
-
Die Videokameras 50B und 50G sind
auf fernsteuerbaren Schwenk-/Neigungseinheiten angeordnet und können unter
Verwendung zweier Joystick-Steuerungen eingestellt werden, während die
Kameras 50B, 50E, 50G und 50I Zoom-
und Fokus-Fernsteuerungen
aufweisen. Jede Videokamera 50 ist mit einer zugeordneten
Kamerasteuerungseinheit 70 elektrisch verbunden, die dazu
verwendet wird, normale Kamerakopfsteuerungen bereitzustellen. Jede
Kamerasteuerungseinheit 70 ist mit einem von mehreren Eingängen 74 des
digitalen Matrix-Routers 23 verbunden und führt dem
Router 23 ein Signal zu. Der Abstand zwischen dem GPS-Empfänger 24 und
jeder Videokamera 50 ist so bemessen, daß die räumliche
oder Ortsposition jeder Kamera 50 anhand der erfaßten Qrtspositionsinformation
bestimmbar ist.
-
Der digitale Matrix-Router 23 ist
mit dem Datenerfassungssteuerungscomputer 16 verbunden,
der die Operation des Routers 23 steuert. Der Router stellt
an mehreren Router-Ausgängen 78 gemäß einer
Anweisung durch im Steuercomputer 16 angeordnete Software
jede gewünschte
Kombination von an seinen Eingängen 74 empfangenen
Signalen bereit. Vier Rou ter-Ausgänge 78 sind mit dem
Vierfachansichtgenerator 62 elektrisch verbunden. Jeder
der drei Router-Ausgänge 78 ist über das
Vektorskop 68 mit dem ersten, dem zweiten und dem dritten
Videomonitor 54A, 54B bzw. 54C elektrisch
verbunden. Die beiden übrigen
Router-Ausgänge 78 sind
mit dem Videorekorder 20 bzw. einem vierten Videomonitor 54D elektrisch
verbunden. Sowohl die Zeitbasiskorrektureinrichtung 64 als
auch ein erster Ausgang 80 des Videorekorders 20 sind
mit Router-Eingängen 74 elektrisch
verbunden.
-
Der Vierfachansichtgenerator 62 weist
vier Eingänge 82 auf,
so daß Signale
von vier der Videokameras 50 gleichzeitig eingegeben werden
können.
Der Generator 62 reduziert das durch jedes Signal dargestellte Bild
auf ein Viertel seiner Originalgröße und kombiniert dann die
reduzierten Bilder, um durch Anordnen jedes der reduzierten Bilder
an einer der vier Ecken eines Ausgangsbildes ein einziges Videobild
zu erzeugen. Dieses Ausgangsbild wird als Vierfachansichtbild bezeichnet
und an einem Ausgang 84 des Vierfachansichtgenerators 62 bereitgestellt,
der mit einem Eingang 86 der Zeitbasiskorrektureinrichtung 64 elektrisch
verbunden ist. Die Zeitbasiskorrektureinrichtung 64 hält das Vierfachansichtbild
in einem Puffer, bis das Bild durch den digitalen Matrix-Router 23 ausgewählt wird.
Dieser Puffer ist erforderlich, weil durch den Vierfachansichtgenerator 62 erzeugte
Vierfachansichtbilder etwa 1/10 Sekunde benötigen, um ausreichend stabil
zu werden, damit sie durch den Videorekorder 20 exakt aufgezeichnet
werden können.
-
Außer daß der digitale Matrix-Router 23 Signale
an den Vierfachansichtgenerator 62 und den Videorekorder 20 überträgt, leitet
er auch Bilder von den Videokameras 50 und von der Zeitbasiskorrektureinrichtung 54 an
die vier Videomonitore 54 weiter. Die Reihenfolge und die
Zeitdauer, mit der jedes der Bilder an die Monitore 54 weitergeleitet
wird, wird durch Software im Steuercomputer 16 festgelegt,
der dann den Router 23 anweist, welches Bild er bereitstellen
soll. Die durch den Router 23 an den ersten, den zweiten
und den dritten Videomonitor 54A, 54B und 54C weitergeleiteten
Bilder werden über
das Vektorskop 68 übertragen.
Das Vektorskop 68 überwacht
die durch den Router 23 bereitgestellten Signale von den
Videoquellen und führt
diese Signale dem ersten, dem zweiten und dem dritten Videomonitor 54A, 54B und 54C für eine normale
Videoüberwachung
zu. Das Vektorskop 68 wird als Diagnosequelle verwendet
und führt
Diagnosesignale von zwei Diagnoseausgängen 90 einem Kanal
B des ersten Videomonitors 54A und des zweiten Videomonitors 54B zu.
-
Der Videorekorder 20 ist
ein Videorekorder des Typs Sony PVW-2800 BetaCam SP und wird durch den
Datenerfassungssteuercomputer 16 gesteuert. Ein zweiter
Ausgang 94 des Videorekorders 20 ist mit einem
zweiten Eingang 96 des vierten Videomonitors 54D elektrisch
verbunden und führt
einem Kanal B des Monitors 54D ein Signal zu, das die aufgezeichneten
Videobilder enthält.
Der Videorekorder 20 zeichnet vom digitalen Matrix-Router 23 bereitgestellte
Bilder auf Videobändern
des Typs Sony Betacam SP auf, die allgemein eine Aufzeichnungslänge von
90 min haben. Jedes Band weist drei Videokomponentenspuren, zwei
Tonspuren und eine SMPTE- (Society of Motion Picture and Television
Engineers) Zeitcodespur auf.
-
4 zeigt
den Teil des Bilderfassungssystems 22, der die präzise Zeitsteuerung
für alle
Videokomponenten bereitstellt. Ein Standard-Video-Schwarzreferenztaktgenerator 100 wird
zum Synchronisieren der Zeitsteuerung des Bildsteuerungssystems 22 verwendet.
Der Taktgenerator 100 weist einen ersten Generatorausgang 102,
der mit dem Eingang eines ersten Sechskanalverteilungsverstärkers 104 elektrisch
verbunden ist, und einen zweiten Generatorausgang 106 auf,
der mit dem Eingang eines zweiten Sechskanalverteilungsverstärkers 108 elektrisch
verbunden ist. Sowohl der erste Verstärker 104 als auch
der zweite Verstärker 108 verstärken ein
durch den Taktgenerator 100 erzeugtes Schwarzreferenztaktsignal
und stellen das Taktsignal an einem ersten und einem zweiten Verstärkerausgang 110 bzw. 112 bereit.
-
Der erste Verteilungsverstärker 104 führt das
Taktsignal dem Videorekorder 20, dem digitalen Matrix-Router 23,
dem Vierfachansichtgenerator 62, dem Vektorskop 68 und
der Zeitbasiskorrektureinrichtung 64 zu. Der zweite Verteilungsverstärker 108 führt das
Taktsignal dem Videokomponentencontroller 44, der zweiten
Kamerasteuerungseinheit 70B, der vierten Kamerasteuerungseinheit 70D,
der sechsten Kamerasteuerungseinheit 70F, der achten Kamerasteuerungseinheit 70H und
der zehnten Kamerasteuerungseinheit 70J zu. Die erste,
die dritte, die fünfte,
die siebente und die neunte Kamerasteuerungseinheit 70A, 70C, 70E, 70G und 70I sind
mit der zweiten, der vierten, der sechsten, der achten und der zehnten
Kamerasteuerungseinheit 70B, 70D, 70F, 70H bzw. 70J verbunden,
um zu ermöglichen,
daß das
Taktsignal den übrigen
Kamerasteuerungseinheiten zugeführt
werden kann. Durch eine elektrische Schaltung mit jeder Videovorrichtung
wird ein NTSC- (National Television Standards Committee) Videoaustastintervall
mit dem Schwarzreferenztaktsignal synchronisiert.
-
Vor einer Aufzeichnung auf das Videoband
werden die Kabelverbindungen zum Videorekorder 20 modifiziert,
um dem Videorekorder 20 ein Video-Schwarzreferenzsignal
zuzuführen,
wodurch eine Folge einzelner Rahmen bzw. Frames oder Bilder auf
einem leeren Band erzeugt wird. Ein im Videorekorder 20 integrierter Zeitcodegenerator
erzeugt eine exakte Markierung für
jeden dieser Videorahmen durch einen SMPTE-Zeitcode. Die SMPTE-Zeitcodes werden
in einem kontinuierli chen Strom von Non-Drop-Rahmenzeitcodes in
einem Stunden:Minuten:Sekunden-Rahmenformat, das dreißig Rahmen
(0–29)
pro Sekunde, 60 Sekunden pro Minute und 60 Minuten pro Stunde aufweist,
auf das Videoband geschrieben. Die Markierung des Videobandes ermöglicht eine
präzise
Aufzeichnung von Videobildern auf die Videorahmen während des
Datenerfassungsprozesses.
-
Der Steuercomputer 16 kann
einen Befehlssatz an den digitalen Matrix-Router 23 übertragen,
um eine als Zyklus bezeichnete gewünschte kontinuierliche Folge
vorgegebener Routings oder Weiterleitungen auszuführen. Die
an den Router 23 übertragenen
Befehle werden durch den Videokomponentencontroller 44 zeitgesteuert.
Befehle werden durch den Steuercomputer 16 an den Router 23 übertragen,
bevor das NTSC-Videoaustastintervall
des gewünschten
Videorahmen-SMPTE-Zeitcodes
und die Router-Schaltbefehle in eine Warteschlange des Routers 23 eingeordnet
werden. Wenn das gewünschte
NTSC-Videoaustastintervall
des Schwarzreferenztaktsignals durch den Router 23 erfaßt wird,
werden die Routereingänge 74 gemäß der Spezifizierung
durch die Befehle vom Steuercomputer 16 mit den Routerausgängen 78 verbunden.
Die Verbindungen zwischen den Routereingängen und -ausgängen 74 und 78 werden
vor dem Ende des NTSC-Videoaustastintervalls abgeschlossen, um einmal
pro Austastintervall einen nahtlosen Schaltvorgang zu ermöglichen.
-
Jede der Videokameras 50 ist
in der Lage, Bilder mit einer Rate von 30 Rahmen pro Sekunde bereitzustellen.
Außerdem
ist der digitale. Matrix-Router 23 in der Lage, das Routing
oder die Weiterleitung der an seinen Eingängen 74 empfangenen
Signale dreißigmal
pro Sekunde zu ändern.
Die an den Routerausgängen 78 bereitgestellten
Videobilder können
dadurch dreißigmal
pro Sekunde geändert
werden.
-
In den dem Router 23 zugeführten Befehlen
ist eine Folge der Videokameras 50 enthalten, von denen Videobilder
durch den Videorekorder 20 aufgezeichnet werden sollen.
Auf diese Weise können
Bilder von jeder der Videokameras 50 durch eine einzige
Videoaufzeichnungsvorrichtung in einer gewünschten Folge aufgezeichnet
werden. Ein typischer 18-Rahmen-Aufzeichnungszyklus
ist folgendermaßen
gegeben:
-
-
Der vorgegebene Aufzeichnungszyklus
wird während
des Datenerfassungsprozesses kontinuierlich wiederholt, wodurch
mehrere verschachtelte Videobilder von mehreren Videobildquellen
auf einem Aufzeichnungsmedium aufgezeichnet werden. Wie dargestellt
ist, kann nicht nur die Ansicht von einer beliebigen Videokamera 50 aufgezeichnet
werden, sondern es kann ein beliebiges gewünschtes Vierfachansichtbild
aufgezeichnet werden. Durch die gelegentliche Aufzeichnung der gleichen
Kameraansicht für
zwei aufeinanderfolgende Rahmen werden sequentielle Seitenansichten
bereitgestellt, die für
eine terrestrische Photogrammetrie nützlich sein können.
-
Der vorstehend dargestellte Aufzeichnungszyklus
kann während
des Aufzeichnungsvorgangs dynamisch konfiguriert werden. Die Computertastatur 36 ermöglicht bis
zu zehn vorgegebene Aufzeichnungszyklen. Wenn ein neuer Aufzeichnungszyklus
ausgewählt
wird, beginnt der Steuercomputer 16 den neuen Zyklus unmittelbar
nach Abschluß des
dann aktuellen Aufzeichnungszyklus. Durch die vorstehend beschriebene
präzise
Zeitsteuerung wird ermöglicht,
daß innerhalb
eines einzigen NTSC-Austastintervalls eine Änderung im Aufzeichnungszyklus
sowie eine Änderung
der den Videomonitoren 54 zugeführten Signale vorgenommen werden
können.
-
Während
des Datenerfassungsprozesses, der in eine Folge von "Läufen" oder "Runs" organisiert
ist, übertragen
die Videokameras 50 kontinuierlich Bildsignale über die
Kamerasteuerungseinheiten 70 an den digitalen Matrix-Router 23.
Gemäß den Befehlen
vom Steuercomputer 16 führt
der Router 23 dem Videorekorder 20 das Signal
von einer ausgewählten
der Bildquellen zu, die die zehn Videokameras 50 und den
Vierfachansichtgenerator 62 umfassen. Die dem Videorekorder 20 zugeführten Bilder
werden mit einer Rate von dreißig Bildern
pro Sekunde in einer vorgegebenen Reihenfolge aufgezeichnet, die
einen Zyklus aufweist. Außerdem werden
Audiokommentare vom Fahrer und von einem Navigator des sich bewegenden
Fahrzeugs 11 durch den Videorekorder 20 aufgezeichnet.
-
Während
der Videorekorder 20 Videobilder aufzeichnet, erfaßt der GPS-Empfänger 24 dreidimensionale
feste Ortsdaten vom NASA NAVSTAR-Satellitennetz in ausgewählten Zeitintervallen
und an ausgewählten
Positionen. Diese festen Ortsdaten werden dem Steuercomputer 16 zusammen
mit der durch die Satelliten übertragenen
mittleren Greenwich-Zeit (GMT) zugeführt. Der Steuercomputer zeichnet
die Ortsdaten jedes durch den GPS-Empfänger 24 bereitgestellten
Positionswertes auf, wobei die Daten bezüglich der geographischen Breite,
Länge und
Höhe bereitgestellt
werden. Der Videokomponentencontroller 44 führt dem
Steuercomputer 16 für
jeden Positionswert des GPS-Empfängers,
den er empfängt
und aufzeichnet, den SMPTE-Zeitcode des Rahmens zu, auf den der
Videorekorder 20 aufzeichnet. Der SMPTE-Zeitcode wird dann
zusammen mit dem entsprechenden Satz von GPS-Ortsdaten durch den
Steuercomputer 16 aufgezeichnet.
-
Das Trägheitsnavigationssystem (INS) 28 weist
einen Satz von Drehbewegungs- und Beschleunigungssensoren auf und
bestimmt die Relativposition des Fahrzeugs bezüglich der geographischen Breite, Länge und
Höhe und
des Pitch-, des Roll- und des Yaw-Winkels, wie in 5 dargestellt ist. Das INS-System 28 kann
dadurch eine Ortsposition mit sechs Freiheitsgraden bezüglich den
durch den GPS-Empfänger
empfangenen vorangehenden Positionswerten bereitstellen. Das INS-System
stellt diese sechsdimensionalen Relativpositionsdaten mit einer
Rate von dreißig
Daten pro Sekunde bereit, und die Daten werden durch den Steuercomputer 16 gespeichert.
Vorzugsweise verwendet das INS-System 28 Qualitäts-Lasergyroskope, die extrem
genaue Drehpositions-/Lagedaten bereitstellen. Das INS-System 28 kann
außerdem
einen mit einem nicht angetriebenen Rad des Fahrzeugs 11 verbundenen
Kilometer- oder Wegstreckenzähler
aufweisen, wodurch das Erfordernis, anzuhalten, um das INS-System 28 neu
einzustellen, reduziert wird.
-
Der Videokomponentencontroller 44 führt dem
Steuercomputer 16 für
jeden Positionswert des INS-Systems 28, den es empfängt und
aufzeichnet, den SMPTE-Zeitcode des Rahmens zu, auf den der Videorekorder 20 aufzeichnet.
Der SMPTE-Zeitcode wird dann durch den Steuercomputer 16 mit
dem entsprechenden Satz von INS-Positionsdaten aufgezeichnet. Durch
die Auf zeichnung der GPS- und INS-Ortspositionsdaten zusammen mit
dem entsprechenden SMPTE-Zeitcode können die Positionsdaten während einer nach
dem Erfassungsvorgang ausgeführten
Verarbeitung durch den SMPTE-Zeitcode interpoliert werden.
-
Durch Verwendung des Trägheitsnavigationssystems 28 ist
das erfindungsgemäße Erfassungssystem in
der Lage, exakte Positionswerte bei vielen Situationen zu erfassen,
in denen der GPS-Empfänger 24 nicht in
der Lage ist, exakte Positionsdaten zu erhalten. Dies tritt häufig dann
auf, wenn der GPS-Empfänger
nicht genügend
Satellitensignale empfangen kann, um eine Position zu berechnen,
und wenn die Signale von einem oder mehreren Satelliten an einem
Gebäude
oder an einer anderen Oberfläche
reflektiert werden.
-
Wenn das Fahrzeug für eine längere Zeitdauer
anhalten muß,
oder wenn eine zuvor aufgezeichnete Straße erneut abgefahren werden
muß, um
einen gewünschten
Ort zu erreichen, wird durch den Navigator ein Pausebefehl zum Stoppen
der Aufzeichnung sowohl von Videobildern als auch der Positionsinformation
erzeugt. Wenn mit der Aufzeichnung von Daten begonnen werden soll,
wird ein Wiederaufnahmebefehl erzeugt. Der Steuercomputer 16 zeichnet
den SMPTE-Zeitcode des letzten Rahmens, auf den der Videorekorder 20 aufgezeichnet
hat, nachdem ein Pausebefehl ausgegeben wurde, und des ersten Rahmens
auf, an dem die Aufzeichnung nach einem Wiederaufnahmebefehl beginnt.
-
6 zeigt
den Datenfluß im
Erfassungssystem während
eines Datenerfassungsvorgangs. Die erfaßten Daten beinhalten Daten
des Videobands 114, GPS- und INS-Ortspositionsdaten 115 und
eine Aufzeichnung jedes ausgegebenen Pause- und Wiederaufnahmebefehls 116.
Das Videoband 114 enthält
alle aufgezeichneten Videobilder sowie die gesamte Audioinformation 118 vom
Fahrer und vom Navigator. Die Videobanddaten 114 werden
in ein komprimiertes digitales Format umgewandelt und in einer digitalen
Videodatei gespeichert, so daß während einer
nach dem Erfassungsvorgang ausgeführten Verarbeitung direkt darauf
zugegriffen werden kann. Es wird eine Korrelationstabelle erzeugt,
um eine Beziehung zwischen dem SMPTE-Zeitcode jedes digitalen Videorahmens
und dem SMPTE-Zeitcode auf dem Original-Videoband zu erhalten. Die
vom GPS-Empfänger 24 und
vom INS-System 24 bereitgestellten GPS- und INS-Positionsdaten 115 werden
als digitale Datei gespeichert. Die aufgezeichneten sechsdimensionalen
Ortspositionsdaten werden mit einem SMPTE-Zeitcode-Index versehen,
so daß sie
jedem aufgezeichneten Videobild oder -rahmen zugeordnet werden können. Jeder
Satz von Positionsdaten enthält
außerdem
die entsprechende mittlere Greenwich-Zeit (GMT), die darstellt,
wann die Information erfaßt
wurde, und ermöglicht,
daß SMPTE-Zeitcodes
mit einem GMT-Zeitindex versehen werden können. Die Aufzeichnung jedes
Pause- und Wiederaufnahmebefehls wird mit einem SMPTE-Zeitcode-Index
versehen.
-
Während
jedes Runs erfaßt
der GPS-Basis-Empfänger 42,
der in 6 nicht dargestellt
ist, dreidimensionale Positionsdaten vom NASA NAVSTAR-Satellitennetz
in den gleichen Zeitintervallen wie der GPS-Empfänger 24 im Fahrzeug.
Jeder Satz von Positionsdaten wird in einer Basisstationsdatei zusammen mit
einer entsprechenden, durch die GPS-Satelliten bereitgestellten
GMT-Zeit aufgezeichnet. Die Erfassung von Positionsdaten durch den
GPS-Basis-Empfänger 42 muß vor Beginn
jedes Runs beginnen und während jedes
Runs kontinuierlich erfolgen. Außerdem muß der GPS-Basis-Empfänger 42 so
positioniert sein, daß sich zwischen
dem Empfänger 42 und
den GPS-Satelliten keine Hindernisse befinden.
-
7 zeigt
eine Folge von Schritten, die während
des erfindungsgemäßen Verfahrens
ausgeführt werden.
Wie vorstehend beschrieben wurde, werden durch das Datenerfassungssystem 10 sowohl
visuelle oder Video- als auch räumliche
oder Ortspositionsdaten erfaßt,
wie durch einen Block 120 dargestellt ist, und Ortspositionsdaten
werden unter Verwendung des GPS-Basis-Empfängers 42 erfaßt, wie
durch einen Block 122 dargestellt ist. Die Ortspositionsdaten
vom GPS-Empfänger 24 und
vom GPS-Basis-Empfänger 42 werden
dann differentiell weiterverarbeitet, wie durch einen Block 124 dargestellt
ist. Die differentiell verarbeiteten GPS-Daten und INS-Ortspositionsdaten
werden wie in Block 126 dargestellt korreliert, Fehler
in den INS-Positionsdaten werden korrigiert und die GPS- und INS-Positionsdaten
werden kombiniert, wie durch einen Block 128 dargestellt
ist.
-
Dann wird der Versatz zwischen der
Ortsposition des Fahrzeugs 11 und der Straßenmittellinie,
wie in Block 132 dargestellt, unter Verwendung der erfaßten Bilder
auf dem Videoband 130 berechnet. Dann werden Straßenmittellinienpunkte
auf einem CAD-Displaysystem gezeichnet, wie durch Block 135 dargestellt
ist. Straßensegmentknoten
von einer TIGER/Line-Datei 134 werden aktualisiert, wie
durch Block 138 dargestellt ist, und basierend auf den
aktualisierten Straßensegmentknoten
können
neue Straßensegmente
erzeugt werden, wie durch Block 140 dargestellt ist. Dann
werden Formpunkte für
die Straßensegmente
berechnet, wie durch Block 142 dargestellt ist, und es
wird eine Videobild-Segment-Beziehung
erzeugt, wie durch Block 144 dargestellt ist. Dadurch wird
eine vollständige
Datendatei 146 bereitgestellt, die exakte, aktualisierte
Straßensegmente
mit einer bekannten Beziehung mit den aufgezeichneten Videobildern
aufweist. Jeder dieser Schritte wird nachstehend ausführlicher
beschrieben.
-
Das US-Verteidigungsministerium (United
States Department of Defense) führt
absichtlich Fehler in die durch jeden Satelliten bereitgestellte
NAVSTAR-Satelliteninformation ein, wodurch Ungenauigkeiten in den Positionsdaten
entste hen. Dieser Fehler wird vor der Verarbeitung der erfaßten Information
durch die differentielle Verarbeitung der durch den bekannten GPS-Basis-Empfänger 42 erfaßten Positionsdaten
mit denjenigen des Fahrzeug-basierten GPS-Empfängers 24 eliminiert.
Die durch den GPS-Basis-Empfänger 42 aufgezeichneten
Positionsdaten werden mit einem GMT-Zeitcode-Index versehen und
mit den durch den GPS-Empfänger 24 aufgezeichneten
Positionsdaten unter Verwendung der GMT-Zeitcodes korreliert. Durch
eine differentielle Verarbeitung wird eine korrigierte dreidimensionale
Ortsposition des GPS-Empfängers 24 bezüglich der geographischen
Breite, Länge
und Höhe
für jede
Position erhalten, bei der ein GPS-Meßwert aufgenommen wurde.
-
Nachdem eine Absolutposition für jeden
GPS-Meßwert
bestimmt worden ist, können
die aufgezeichneten Relativpositionsdaten vom INS-System 28 in
absolute Ortspositionsdaten bezüglich
der geographischen Breite, Länge
und Höhe
umgewandelt werden. Diese Absolutpositionen werden dann mit den
aufgezeichneten Pitch-, Roll- und Yaw-Winkeln bzw. Nick-, Roll-
und Gierwinkeln des Fahrzeugs kombiniert, um eine vollständige Datendatei
exakter sechsdimensionaler Ortspositionen zu erzeugen, auf die durch
das Datum, den SMPTE-Zeitcode,
die GMT-Zeit und den Run Bezug genommen werden kann. Während dieser
Verarbeitung werden die INS-Positionsdaten
korrigiert, wenn zwischen den durch das INS-System 28 und den durch den GPS-Empfänger 24 bereitgestellten
Positionsdaten Abweichungen bestehen. Wenn dies der Fall ist, werden die
durch das INS-System 28 bereitgestellten Positionsdaten
durch Vorgabe des in der Geschwindigkeit und Richtung bei dem Abweichungspunkt
gefundenen Fehlers rückwärts durch
die aufgezeichneten Daten bis zum vorangehenden GPS-Positionswert
korrigiert.
-
Nachdem die Datenerfassung und die
Nachverarbeitung abgeschlossen sind, ist die Information für eine Korrelation
und Extraktion der visuellen Daten bereit. Dieser Extraktionsprozeß wird vollständig nach
dem Datenerfassungsprozeß und
der Datennachverarbeitung ausgeführt.
Durch Trennen des Erfassungs-, des Nachverarbeitungs- und des Extraktionsprozesses
kann eine größere Datenmenge
erfaßt
und eine größere Informationsmenge
extrahiert werden als in dem Fall, wenn die Verarbeitungen gleichzeitig
ausgeführt
würden. Die
Information, bezüglich
der der Extraktionsprozeß ausgeführt wird,
beinhaltet die durch den Videorekorder 20 aufgezeichneten
Videobilder, die sechsdimensionalen absoluten Ortspositionen des
Fahrzeugs 11 und die Aufzeichnung der Pauseund Wiederaufnahmebefehle.
-
Eine Datei, die die absoluten Ortspositionen
des Fahrzeugs 11 zusammen mit den entsprechenden SMPTE-Zeitcodes
enthält,
wird in ein (nicht dargestelltes) CAD-Displaysystem geladen. Das
Displaysystem zeichnet die X- und Y-Koordinaten jeder in der Datei
gespeicherten Ortsposition als Punkt. Der Abstand zwischen den Punkten
variiert basierend auf der Geschwindigkeit des Fahrzeugs 11,
und der sichtbare Weg gezeichneter Punkte definiert den wahren Weg
des Fahrzeugs 11. Im allgemeinen fährt das Fahrzeug 11 auf
einer Seite der Straßenmitte.
Außerdem
werden die Ortspositionsdaten bezüglich eines einzelnen Punktes
innerhalb des Fahrzeugs 11 erfaßt. Daher stehen die erfaßten Ortspositionsdaten
nicht direkt mit der wahren Straßenmitte in Beziehung, so daß ein Versatz
des Fahrzeugs 11 von der tatsächlichen Straßenmitte
berechnet werden muß,
um die wahre Straßenmitte
zu bestimmen.
-
Um die Straßenmittellinie zu bestimmen,
kombiniert ein Operateur die Darstellung der gezeichneten Punkte,
die die wahre Ortsposition des Fahrzeugs 11 darstellen,
mit einer Darstellung der Vorder- oder der Rückansichtvideobilder. Die Vorder-
oder die Rückansichtvideobilder,
die jedem der gezeichneten Punkte entsprechen, können durch eine Direktzugriffsprozedur
unter Verwendung des bekannten SMPTE-Zeitcodes für jeden Punkt abgerufen werden.
Der Operateur wählt
den ersten gezeichneten Punkt im Segment aus und stellt das entsprechende
Videobild in einem Displayfenster eines digitalen Videocomputers
dar. Die beiden Ansichten werden kalibriert, um die Mitte des Videobildes
direkt mit der Fahrlinie des Fahrzeugs 11 in Deckung zu bringen.
Eine eine gedachte Projektion von der Videobildquelle darstellende
Linie wird auf dem Videodisplay als grafischer Cursor dargestellt.
Dieser Cursor kann durch eine Steuerungsschnittstelle, z. B. eine
Maus oder eine Rollkugel, nach links oder rechts bewegt werden.
Der Abstand zwischen dem Cursor und der vertikalen Mitte des grafischen
Bildes wird bezüglich
einer Pixelzahl gemessen. Der Abstand in Pixeln wird unter Verwendung
bekannter Information über
die Montageposition und die Brennweite der Videoquelle in einen
Abstand in Fuß (oder
Meter) umgewandelt. Diese Abstand in Fuß (oder Meter) ist der Abstand,
in dem die wahre Fahrzeugposition von der Straßenmitte versetzt ist und kann
zum Berechnen der der Fahrzeugposition entsprechenden Ortsposition
der Straßenmitte
verwendet werden.
-
Der Mittellinienbestimmungsprozeß ist in 8 ausführlicher dargestellt. Ein von
einer Kameralinse 152 einer der Kameras 50 aufgenommenes
Videobild 150 ist zum Zweck der Darstellung über einer
Straße 154 aufgehängt, auf
der die Mittellinie bestimmt werden muß. Ein bekannter Vektor D erstreckt
sich senkrecht von der Kameralinse 152 zur Oberfläche der
Straße 154 und
ist bezüglich
eines Kamerakoordinatensystems definiert, das seinen Ursprung an
der Kameralinse 152 hat. Unter Verwendung einer Zeigereinrichtung
wird ein Pixel 156 auf der Mittellinie im Videobild 150 durch
einen Operateur ausgewählt,
und ein Vektor U wird in Koordinaten vom Kamerakoordinatensystem
als sich von der Kameralinse 152 zum Pixel 156 erstreckender
Vektor definiert. Dann wird für
den Vektor U ein Multiplikator L derart bestimmt, daß L*U sich
zu einem Punkt 158 in der Ebene der Oberfläche der
Straße 154 erstreckt.
Der Multiplikator wird durch folgende Gleichung bestimmt:
-
-
Nachdem der Multiplikator L gefunden
wurde, wird der Vektor L*U bestimmt. Der Vektor L*U, der in Kamerakoordinaten
definiert ist, wird anschließend
in eine globale Ortsposition umgewandelt. Dies erfolgt durch Rotation
von L*U, um die Drehunterschiede des Roll-, Pitch- und Yaw-Winkels
bzw. Roll-, Nick- und Gierwinkels zwischen dem Kamerakoordinatensystem
und der globalen Ortsposition zu berücksichtigen, und eine Translation
von L*U, um die Versatzunterschiede der geographischen Breite, Länge und
Höhe zwischen
dem Kamerakoordinatensystem und der globalen Ortsposition zu berücksichtigen.
Der umgewandelte Vektor wird dann zum Bestimmen der Ortsposition
des Punktes 158 auf der Mittellinie verwendet.
-
Wenn auf der Straße keine Mittellinienmarkierung
vorhanden ist, kann eine Zeigervorrichtung mit zwei zusätzlichen
Markierungen verwendet werden. Die zusätzlichen Markierungen sind
auf jeder Seite der Mittellinienmarkierung als gleiche Abstände vor
dem Fahrzeug 11 gleich weit beabstandet. Die Breite des
Zwischenraums zwischen den beiden Markierungen kann eingestellt
werden, um es einem Operateur zu ermöglichen, den Straßenrändern zu
folgen. Ein Computer bestimmt auf dem Videobild 150 automatisch
den Punkt der Stra ße,
zu dem der Vektor U sich von der Kameralinse 152 aus erstrecken
sollte.
-
Wenn der Mittellinienbestimmungsprozeß für jeden
gezeichneten Punkt eines Straßensegments
ausgeführt
wird, wird ein Satz von Breiten-, Längen- und Höhenkoordinaten erzeugt, der
die wahre Straßenmittellinie
darstellt. Wenn dieser Prozeß für jeden
Punkt wiederholt worden ist, kann eine Straßenmittellinie für das Segment
auf dem CAD-System dargestellt werden. Dieser Prozeß berücksichtigt
außerdem Änderungen
der Position des Fahrzeugs 11 bezüglich der Straßenmittellinie,
wenn das Fahrzeug 11 die Straße entlang fährt, einschließlich durch
Verkehr und Hindernisse verursachte Änderungen. Dieser Mittellinienbestimmungs-
oder Versatzberechnungsprozeß wird
ausgeführt,
bis für
jede erfaßte
Ortsposition des Fahrzeugs 11 eine Straßenmittellinienposition berechnet
worden ist.
-
Ein Straßensegment ist ein Satz geordneter
Ortspositionen, die jeweils mit einer benachbarten Position verbunden
sind und eine Näherung
einer Straßenmittellinie
darstellen. Im allgemeinen sind Straßensegmente bezüglich zwei
derartigen Ortspositionen definiert, die als Anfangsknoten und Endknoten
bekannt sind und die Enden der Segmente darstellen. Um gekrümmte Straßensegmente
besser definieren zu können,
wird normalerweise zwischen den Anfangs- und Endknoten ein Satz
von als Formpunkte bekannten Zwischenpositionen ausgewählt. Für gerade
Straßensegmente
sind im allgemeinen keine Formpunkte erforderlich. Straßensegmente
werden anfangs gemäß den zweidimensionalen
TIGER/Line-Dateien des Statistischen Bundesamtes der USA definiert,
wobei jedes Segment basierend auf einem als TIGER/Line-Identifizierung
(TLID) bezeichneten TIGER/Line-Dateiidentifizierungscode eindeutig
identifiziert ist.
-
Die 9 und 10 zeigen den Prozeß zum Aktualisieren
eines Straßensegments. 9 zeigt mehrere gezeichnete
Punkte 190, die einen Satz Ortspositionen darstellen, die
für ein
einzelnes Straßensegment
erfaßt wurden.
Mehrere Mittellinienpositionspunkte 194, die jeweils von
einem der gezeichneten Punkte 190 unter Verwendung des
vorstehend beschriebenen Mittellinienbestimmungsprozesses berechnet
wurden, bilden eine Mittellinie 198. Ein TIGER/Line-Straßensegment 204 mit
einem Anfangsknoten 208 und einem Endknoten 210 ist
ebenfalls in 9 zusammen
mit einem aktualisierten Straßensegment 212 mit
einem neuen Anfangsknoten 216, einem neuen Endknoten 220 und
mehreren Formpunkten 224 dargestellt.
-
Nach Abschluß des Mittellinienbestimmungsprozesses
wird das Straßensegment,
das den berechneten Mittellinienpositionspunkten 194 näherungsweise
entspricht, von einer TIGER/Line-Datei des Statistischen Bundesamtes
der USA abgerufen und auf dem CAD-Display über der berechneten Straßenmittellinie 198 dargestellt.
Weil die TIGER/Live-Straßensegmente
im allgemeinen nicht sehr genaue Näherungen neu berechneter Straßenmittellinien
darstellen, muß das
TIGER/Line-Straßensegment 204 aktualisiert
werden. Dies erfolgt durch Neupositionieren des Anfangsknotens 208 und
des Endknotens 210 des TIGER/Line-Straßensegments 204 und
Definieren der im aktualisierten Straßensegment 212 zu
verwendenden Formpunkte 224.
-
10 zeigt
eine Neupositionierung des Anfangsknotens 208 eines TIGER/Line-Straßensegments. Zwei
Punkte 228 und 232 der Mittellinie 198 definieren
einen ersten Vektor, der mathematisch zu einem zweiten Vektor hin
projiziert ist, der durch zwei Punkte 236 und 240 einer
kreuzenden Mittellinie 244 definiert ist. Der mathematische
Schnittpunkt dieser beiden Vektoren wird bestimmt und definiert
die geographi sche Breite und die Länge des neuen Anfangsknotens 216 des
aktualisierten Straßensegments 212.
Ein Höhenwert
des neuen Anfangsknotens 216 wird von einem vertikalen
Schnittpunkt der beiden Vektoren interpoliert. Der Endknoten 210 des
TIGER/Live-Straßensegments 204 wird
auf die gleiche Weise neu positioniert wie der Anfangsknoten 208,
wodurch der neue Endknoten 220 des aktualisierten Straßensegments 212 bezüglich der
geographischen Breite, Länge
und Höhe
definiert wird. Nachdem der Anfangs- und der Endknoten 208 und 210 des TIGER/Line-Straßensegments 204 aktualisiert
worden sind, werden die Knotenpositionsattribute in der TIGER/Line-Datei
aktualisiert. Weil jeder Knoten sowohl als Anfangs- als auch als
Endknoten für
mehrere Straßensegmente
dient, werden mehrere Straßensegmente
durch Neupositionieren jedes Knotens aktualisiert.
-
Gemäß 9 werden, nachdem der Anfangs- und der
Endknoten 208 und 210 des TIGER/Line-Straßensegments 204 neu
positioniert worden sind, die Mittellinienpositionspunkte 194 zwischen
dem neuen Anfangsknoten 216 und dem neuen Endknoten 220 basierend
auf einer Biegungs- und Abstandsformel statistisch ausgewertet,
um die Formpunkte 224 auszuwählen, die zum grafischen Darstellen
des aktualisierten Straßensegments 212 verwendet
werden. Die Verwendung weniger Formpunkte 224 an Stelle
einer großen
Anzahl von Mittellinienpositionspunkten 194 erleichtert
die effiziente Speicherung der grafischen Datenbasis. 9 zeigt eine grafische Darstellung
des neu definierten Straßensegments 212 mit
fünf Formpunkten 224.
-
Nachdem der Segmentaktualisierungsprozeß abgeschlossen
ist, wird die aufgezeichnete Segmentdatenbank durch die Standard-TLID-Identifizierung
unter Bezug auf die neuen Formpunkte 224 aktualisiert.
Dadurch wird eine Rückwärtskompatibilität mit allen
anderen TIGER/Live-Informationen bereitgestellt. Dieser Prozeß wird für alle Segmente
wiederholt, die während
des Runs abgefahren wurden. Außer
daß die
Segmentpositionsinformation aktualisiert wird, wird der Segmentdatenbank
die Run-Identifizierung und der SMPTE-Zeitcode für den neuen Anfangs- und Endknoten 216 und 220 des
aktualisierten Segments 212 hinzugefügt. Durch diese Zusatzinformation
wird eine Bezugsinformation bereitgestellt, die für einen
Zugriff auf die digitale Videodatei erforderlich ist. Durch Direktzugriff
auf die Videodatei wird für
jede in einem Straßensegment aufgenommene
Ansicht eine neue digitale Videodatei erzeugt. Durch die Run-Identifizierung
und den Anfangs-SMPTE-Zeitcode wird ein Verfahren zum eindeutigen
Identifizieren jeder Gruppe aufgezeichneter Videobilder für jedes
Straßensegment
bereitgestellt.
-
Nachdem die physische Straßensegmenttopologie
definiert ist, werden jedem Straßensegment Videobildsequenzen
zugeordnet. Jede Videosequenz ist durch eine Fahrzeug-Run-Identifizierungsnummer
sowie durch den Anfangs- und den End-Videorahmen-SMPTE-Zeitcode definiert.
Indem jede Videosequenz auf diese Weise identifiziert wird, kann
für jedes
Segment ein eindeutiger Satz von Videobildern abgerufen werden. Außerdem wird
eine Videoquellensequenznummer gespeichert, um einzelne Videoquellen
in jedem verschachtelten Videosegment zu definieren. Die Videoquellensequenznummer
bezeichnet die Position des Anfangs-Videobildes für das Segment
im Videoaufzeichnungszyklus. Diese Information ermöglicht in
Kombination mit der in der Run-Datenbank gespeicherten Videoaufzeichnungssequenz
die Bestimmung der Videoquelle für
jeden SMPTE-Zeitcode innerhalb des Segmentvideobereichs.
-
Es wird ein Videobild-Segmentanpassungsprozeß verwendet,
um jedes Straßensegment
mindestens einem Videobild anzupassen. Es wird Videobildpositionsinformation
verwendet, um die Videobilder zu finden, die geographisch am nähesten zum
Anfangsknoten und zum Endknoten eines Segments liegen. Zunächst wird
durch einen Operateur ein Straßensegment
mit einer bekannten Identifizierung ausgewählt. Der Operateur wählt dann
eine Mittellinienposition innerhalb des Segments aus. Unter Verwendung
des SMPTE-Zeitcodes des ausgewählten
Mittellinienpositionspunktes und durch sequentielles Arbeiten, in
beide Richtungen wird jeder Mittellinienpositionspunkt, an dem ein
Videobild aufgezeichnet wurde, mit dem Anfangsknoten und dem Endknoten
verglichen, bis die näheste
geographische Übereinstimmung
für jeden
Knoten gefunden wird. Die SMPTE-Zeitcodes für diese beiden Videorahmen
werden als Teil der Video-Segment-Beziehung gespeichert.
-
Der kleinere der beiden gespeicherten
Zeitcodes wird mit der Pause- und der Wiederaufnahmeaufzeichnung
des Original-Fahrzeug-Runs verglichen, um den Teilsatz von Videorahmen
zu bestimmen, in dem das Segment aufgezeichnet wurde. Vom Beginn
dieses Teilsatzes wird der bekannte Aufzeichnungszyklus verwendet,
um die Videoquellensequenznummer für das Segment zu berechnen.
Wenn der kleinere der beiden aufgezeichneten Zeitcodes dem Anfangsknoten
zugeordnet ist, werden die dem Segment zugeordneten Videobilder
in der Richtung des Straßensegments
genommen. Wenn der kleinere der beiden aufgezeichneten Zeitcodes
dem Endknoten zugeordnet ist, werden die dem Segment zugeordneten
Videobilder in eine der Richtung des Straßensegments entgegengesetzte
Richtung genommen. Die Video-Segmentrichtung-Beziehung wird als
Teil der Video-Segment-Beziehung gespeichert.
-
Nachdem die Video-Segment-Beziehung
erzeugt wurde, können
die Videosequenzen und Straßensegmente
für verschiedene
Anwendungen verwendet werden. Gemäß einer solchen Anwendung werden
digitale Video-Direktzugriffstechniken verwendet, um die Videosequenz
für ein
Segment in mehrere kleinere Video bildsätze umzuordnen, die sequentielle
Videobilder von einer einzigen Videoquelle enthalten. Jeder derartige Bildsatz
ist durch den Run, die Videoquelle und den Anfangs-SMPTE-Zeitcode identifiziert.
Es wird eine Querreferenztabelle konstruiert, um jeden Bildsatz
mit seiner zugeordneten Straßensegmentidentifizierung
in Beziehung zu setzen. Durch Reduzieren des großen Satzes aufgezeichneter
digitaler Videobilder in kleinere Sequenzen, die Straßensegmenten
zugeordnet sind, wird eine maximale Flexibilität bei der Datenspeicherung ermöglicht.
Durch diese Straßensegmentdatenbank
können
große
Mengen digitaler Videobildsätze
manipuliert oder gehandhabt werden, und unter Verwendung aktueller
Indizierungsmethoden können
bis zu 1014 Straßensegmente gemanagt werden.
-
Die Integration von Videobildern
mit einem geographischen Informationssystem (GIS) erfordert Vielfachzugriffmethoden
für eine
effektive Verwendung in einer GIS-Umgebung. Um diese Anforderung
zu erfüllen, werden
sowohl ein Satz von Segment-Video- als auch von Video-Segment-Beziehungen
erzeugt und verwendet, um eine Datenbank zu erzeugen. Außerdem werden
mehrere Sekundärbeziehungen
von diesen Segment-Videound Video-Segment-Beziehungen erzeugt, um
eine breite Vielfalt von GIS-Anwendungen zu ermöglichen.
-
11 trägt dazu
bei, die Erzeugung einer Video-Segment-Beziehung
zu verdeutlichen und zeigt ein Straßensegment 250 mit
einem Anfangsknoten 252 und einem Endknoten 254.
Es sind ein erster Zwischenformpunkt 256 und ein zweiter
Zwischenformpunkt 258 dargestellt, die dazu beitragen,
das Segment 250 zu definieren und direkt mit dem Anfangsund
dem Endknoten 252 und 254 in Beziehung stehen.
Eine Folge von Videobildern ist durch Punkte V1–V7 dargestellt, und jedes
Videobild hat eine bekannte Position, die bezüglich der geographischen Breite,
Länge und
Höhe, dem
Roll- (Roll-), dem Pitch- (Nick-) und dem Yaw-(Gier-)Winkel definiert
ist. Das Videobild V1 steht durch den vorstehend beschriebenen Anpassungsprozeß direkt
mit dem Endknoten 254 in Beziehung, und das Videobild V7
steht direkt mit dem Anfangsknoten 252 in Beziehung. Die übrigen Videobilder
stehen mit dem Anfangsknoten 252 und dem Endknoten 254 und
den Formpunkten 256 und 258 indirekt in Beziehung.
-
Die indirekte Beziehung zwischen
den übrigen
Videobildern und den Formpunkten 256 und 258 ist
im folgenden Beispiel dargestellt. Das Videobild V3 kann bezüglich des
Segments 250 als Schnittpunkt mit der Senkrechten zur Line
zwischen dem Endknoten 254 und dem zweiten Formpunkt 258 definiert
werden. Der Schnittpunkt kann bezüglich einer absoluten Breiten-,
Längen-
und Höhenposition
oder relativ zum Endknoten 254 als negativer Abstand vom
Schnittpunkt zum Endknoten 254 dargestellt werden. Die
Relativposition des Videobildes V3 kann auch als positiver Abstand
vom Anfangsknoten 252 zum Schnittpunkt dargestellt werden, der
dem Abstand vom Anfangsknoten 252 zum ersten Formpunkt 256 plus
dem Abstand vom ersten Formpunkt 256 zum zweiten Formpunkt 258 plus
dem Abstand vom zweiten Formpunkt 258 zum Schnittpunkt gleicht.
-
Weil die Beziehung zwischen den Videopunkten
V2–V6
und dem Anfangsknoten 252, dem Endknoten 254 und
den Formpunkten 256 und 258 eine unabhängige Beziehung
ist, kann eine neue Beziehung leicht erzeugt werden, wenn für das gleiche
Segment nachfolgende Video- und Positionsdaten erfaßt wurden.
Die neue Beziehung kann zwischen beliebigen neuen Videopunkten und
den vorhandenen Formpunkten 256 und 258 durch
Erzeugen einer neuen Video-Anfangsknoten(252)-Beziehung
und einer neuen Video-Endknoten(254)-Beziehung und Berechnen
des Schnittpunkts gemäß der vorstehenden
Beschreibung erzeugt werden. D. h., nachdem das Straßensegment
einschließlich
des Anfangsknotens, des Endknotens und der Formpunkte festgelegt
worden ist, muß es
nicht aktualisiert werden, und nachfolgende Videobilder können auf
die gleiche Weise mit dem Segment in Beziehung gesetzt werden wie
die Videobilder V1–V7.
-
Durch Erzeugen einer direkten Beziehung
zwischen jedem Knoten und dem nähesten
Videobild wird auch eine Segment-Video-Beziehung
erzeugt. Aufgrund dieser Beziehung wird ein geordneter Satz von
Videobildern einem beliebigen vorgegebenen Segment zugeordnet. Dies
ermöglicht
einen einfachen Zugriff auf einen Satz Videobilder und auf damit
in Beziehung stehende Attributinformation für ein beliebiges vorgegebenes Segment.
Daher kann ein Segmentpositionspunkt, der als eine Position relativ
zu einem Anfangsknoten oder einem Endknoten dargestellt ist, als
eine Absolutposition bezüglich
Videobildpositionen dargestellt werden. Dadurch kann das bezüglich einer
beliebigen vorgegebenen Segmentposition näheste Videobild bestimmt werden,
so daß ein
Benutzer eine visuelle Darstellung sowie damit in Beziehung stehende
Attributinformation für
eine vorgegebene Position untersuchen und prüfen kann. Ähnlich wie bei der Video-Segment-Beziehung sind
die Videobildpositionen unabhängig
von den Segmentknoten und den Zwischenformpunkten. Daher können die
Segmentpositionen auf die gleiche Weise mit Video- und Positionsinformation
in Beziehung gesetzt werden, die während nachfolgender Runs erfaßt werden.
-
12 zeigt
mehrere Anwendungen, bei denen die aktualisierten Straßensegment-
und Video-Segment-Beziehungsdaten 146 verwendet werden
können.
Die Anwendungen weisen die Erzeugung und die Aktualisierung von
Adressenbereichen 282 und die Integration von Adressenattributinformation 284,
die Erzeugung und Pflege von Straßennetztopologien 286,
die Erfassung von Fahrzeug-Routenführungsinformation 288,
die Erzeugung und Pflege von Grenzpolygontopologien und -attri buten 290 und 292,
die exakte Position von Punktmerkmalen und ihren Attributen 294 und 296 und
die Integration von Straßensegmentattributen
mit anderen GIS-Systemen 298 auf. Diese Anwendungen werden
nachstehend ausführlicher
diskutiert.
-
In einem Videobild dargestellte Attribute
oder Merkmale haben eine erweiterte indirekte Beziehung mit Segmentpositionen.
Beispielsweise hat eine (Haus)Adresse eine indirekte Adressen-Segment-Beziehung.
Unter Verwendung dieser Beziehung in Kombination mit der indirekten
Segment-Video-Beziehung
kann auch eine Adressen-Video-Beziehung erzeugt werden. Mit einer
derartigen Beziehung kann eine in einem Videobild dargestellte Adresse
mit einer berechneten Adresse verglichen werden. Wenn die beiden
Adressen nicht identisch sind, kann die visuell beobachtete Adresse
verwendet werden, um das Modell zu korrigieren, durch das die Adresse
berechnet wurde.
-
Ein anderes Beispiel der Verwendung
einer erweiterten Beziehung ist eine Fahrzeug-Routenführung, gemäß der die
effiziente Erfassung von Fahrzeug-Routenführungsinformation durch die
Video-Segmentdaten-Beziehung wesentlich verbessert wird. Fahrzeug-Routenführungsinformation
wird in zwei Kategorien von Knotenattributinformation eingeteilt,
die die Beziehung zwischen zwei Segmenten durch einen Knoten definiert,
und Segmentattributinformation, die die Eigenschaften der Segmente
definiert. Durch Kombinieren dieser beiden Datensätze mit
GIS-basierter Routenführungssoftware
wird eine genaue Fahrzeugnavigation oder -routenführung ermöglicht.
-
Knotenattributinformation wird durch
visuelle Untersuchung der aufgezeichneten Videobilder für jede Kreuzung
erfaßt.
Jede Durchfahrt durch eine Kreuzung wird als Bewegung von einem
spezifizierten Segment durch einen spezifizierten Knoten zu einem
anderen spezifizierten Segment gespeichert. Unter Verwendung von
Segment-Videodaten-Beziehungen ruft ein Operateur die Videobilder
eines beliebigen Ortes in der Umgebung eines Knotens ab. Die abgerufenen
Videobilder werden dann visuell untersucht, um das Vorhandensein einer
Segment-Segment-Verbindung
sowie von Verkehrseinschränkungen
oder -regulierengen zu bestimmen. Es wird eine mit Indizes versehene
Knotenattributdatenbank erzeugt, um all diese Information für eine spätere Bezugnahme
zu speichern.
-
Bei der Erfassung von Segmentattributinformation
werden die Videobilder für
jedes Segment visuell betrachtet und bezüglich Geschwindigkeitsbeschränkungen,
einer Straßentypklassifizierung,
einem Einbahnstraßenmerkmal,
Gewichts- oder Höhenbeschränkungen
und anderen Verkehrsregulierungen ausgewertet. Jedes dieser Attribute
wird in einer Segmentattributdatenbank als Anfangs-/Endbereich und
bezüglich
einer Links- oder Rechtsausrichtung gespeichert. Beispielsweise
könnte
eine kurze Parkverbotzone als Attribut von einer Relativposition
X auf dem Segment bis zum Ende des Segments und auf der geeigneten
Straßenseite beschrieben
werden.
-
Außerdem können erweiterte Beziehungen
verwendet werden, um Relativpunktpositionen zu bestimmen, die Punkte
bezeichnen, die mit einem Attribut in Beziehung stehen, das mit
einem Segment in Beziehung steht. Um eine Relativpunktposition zu
bestimmen, muß bereits
ein Attributsatz existieren und durch eine Attribut-Segment-Beziehung
mit einem Segment verknüpft
sein. Das Attribut, mit dem der Punkt in Beziehung steht, kann durch
Betrachten des nähesten
Videobildes visuell verifiziert werden. Eine andersartige Punktposition
ist eine direkte Videoposition, die die direkte Zuordnung von Attributdaten
zur Videorahmenidentifizierung des Videobildes ist, auf dem das
Attribut gefunden wird.
-
Die Absolutposition eines Punktes
kann unter Verwendung terrestrischer Photogrammetrie gefunden werden.
Bei der Pho togrammetrie werden mehrere Bilder verwendet, die einen
einzelnen gewählten
Bezugspunkt enthalten, um die Position des Punktes bezüglich den
die Bilder aufnehmenden Kameras zu triangulieren. Diese Relativposition
wird dann in Kombination mit der bekannten Position der Kameras
zu dem Zeitpunkt, als das Bild aufgenommen wurde, verwendet, um
die Absolutposition des gewählten
Punktes zu bestimmen. Nachdem die Absolutposition des Punktes bestimmt
wurde, kann damit in Beziehung stehende Attributinformation visuell
bestimmt und gespeichert werden. Um dazu beizutragen, die Genauigkeit
des Photogrammetrieprozesses zu verbessern, müssen Kameraeigenschaften, z.
B. Linsenkalibrierungsinformation und spezifische Kameramontage-
und -ausrichtungsinformation, berücksichtigt werden.
-
Die vorliegende Erfindung ermöglicht es,
daß der
Photogrammetrieprozeß unter
Verwendung zweier beliebiger Bilder ausgeführt werden kann, die den gewählten Bezugspunkt
enthalten. Dies ist möglich,
weil die sechsdimensionale Ortsposition jeder Kamera für jedes
aufgenommene Videobild bekannt und aufgezeichnet ist. Daher ist
der Abstand zwischen den Positionen, an denen die beiden Bilder
aufgenommen wurden, zusammen mit den Ausrichtungen der Kameras,
die die Bilder aufgenommen haben, bekannt. Erfindungsgemäß kann daher
die Position eines ausgewählten
Bezugspunktes unter Verwendung von Bildern bestimmt werden, die
durch Kameras aufgenommen wurden, die nicht in der gleichen Ebene
liegen, sowie unter Verwendung mehrerer Bilder von einer Kamera.
Die Leistungsfähigkeit
des Photogrammetrieprozesses unter Verwendung von Bildern von verschiedenen
Kameras wird durch die Verwendung einer verschachtelten Bildspeicherung auf
dem Videoband unterstützt.
Außerdem
wird durch die Leistungsfähigkeit
des Photogrammetrieprozesses unter Verwendung von Bildern von verschiedenen
Kameras ermöglicht,
daß Positionen
berechnet werden können,
nachdem der Datenerfassungsprozeß abgeschlossen ist.
-
Die Fähigkeit, den Photogrammetrieprozeß unter
Verwendung von Bildern von zwei beliebigen Kameras auszuführen, stellt
eine wesentliche Verbesserung bezüglich des herkömmlichen
Stereo-Photogrammetrieverfahrens dar. Durch ein derartiges herkömmliches
Verfahren muß eine
relativ kurze Basis- oder Bezugslinie zwischen zwei Kameras durch
Verwendung hochauflösender
Digitalkameras kompensiert werden, wofür außerordentlich große Datenmengen
gespeichert werden müssen.
Außerdem
nimmt, wenn die Position eines Punktes oder Objekts, das sich in
einem großen
Abstand von den Kameras befindet, berechnet wird, was im Stereo-Photogrammetrieverfahren
häufig
der Fall ist, die Fehlerwahrscheinlichkeit bei der Positionsberechnung
des Objekts wesentlich zu. Das erfindungsgemäße System ermöglicht es,
indem zwei beliebige Bilder verwendet werden können, in denen das Objekt gefunden
wird, die Position des Objekts unter Verwendung von Bildern zu berechnen,
in denen das Objekt sich relativ nahe zur Kamera befindet.
-
Erfindungsgemäß kann eine genaue Adressendatenbank
erzeugt werden, und eine vorhandene Datenbank, z. B. eine TIGER/Line-Datei,
kann aktualisiert werden. Außerdem
kann eine Datenbank unter Verwendung von durch das erfindungsgemäße Verfahren
erfaßter
und verarbeiteter Information erzeugt werden, so daß einer
Adresse zugeordnete Videobilder abgerufen werden können.
-
Auf alle durch das vorstehend beschriebene
Verfahren erzeugten Segmente wird durch eine TIGER/Line-Idendifizierungsnummer
verwiesen oder Bezug genommen. Durch dieses Bezugsnahmeverfahren wird
eine eindeutige Identifizierung für alle Straßensegmente in den Vereinigten
Staaten bereitgestellt. Außerdem
können
der Datenbank gemäß dem TIER/Line- Identifizierungssystem
neue Straßen
hinzugefügt
werden. Dadurch können
durch das vorstehend beschriebene Aktualisierungsverfahren erzeugte
Straßensegmente
mit einer TLID-Identifizierung
direkt in Beziehung gesetzt werden. Diese Beziehung ermöglicht es,
auf alle in der TIGER/Line-Datei enthaltenen Datenelemente Bezug
zu nehmen, so daß eine
voll-ständige Kompatibilität der erfindungsgemäß bereitgestellten
Datenbank mit diesem nationalen Standard gewährleistet ist.
-
Jede TLID-Identifizierung enthält einen
als nomineller Adressenbereich bekannten Gesamtadressenbereich für das Straßensegment,
das sie darstellt. Außerdem
unterstützt
jede TLID-Identifizierung einen linken Adressenbereich und einen
rechten Adressenbereich sowie mehrere Teilbereiche. Jede TLID-Identifizierung steht
in Beziehung mit den Koordinaten eines Knotens an jedem Ende des
Straßensegments,
den sie darstellt. Die Koordinaten des Knotens werden als Anfangspunkt
des Adressenbereichs innerhalb des Straßensegments verwendet. Daher
wird vorausgesetzt, daß die
Anfangsadresse jedes nominellen Adressenbereichs sich in der Mitte
einer Straßenkreuzung
befindet. Für
jede spezifische Adresse kann nur eine mögliche Position in der Datenbank
vorhanden sein.
-
Unter Verwendung der erfindungsgemäß bereitgestellten
Datenbank ist ein Adressen-Parsing-Verfahren möglich. Durch ein Adressen-Parsing-Verfahren
wird eine durch einen Benutzer zugeführte Adresse in eine Standardadresse
innerhalb der Datenbank umgewandelt, indem sie mit einem realen
Adressenbereich in der Datenbank in Übereinstimmung gebracht wird.
Dieser Adressenbereich wird mit einer Segment-TLID-Identifizierung,
einem relativen TLID-Versatz von einem der Segmentknoten und einer
Straßenseite
in Beziehung gesetzt. Die Straßenseite,
auf der die Adresse sich befindet, ist als Parität der Adresse bekannt.
-
Adressenbereiche werden intern als
Versatz vom Anfang jedes Straßensegments
gespeichert. Beispielsweise wird der Anfangssegmentknoten als Knoten
mit einem Positionsversatz von null betrachtet, während der
Endsegmentknoten als Knoten mit einem Positionsversatz von eins
betrachtet wird. Die Koordinatenposition einer Adresse basiert auf
dem Versatz, der bestimmt wird, indem die durch die Formpunkte definierte gesamte
Segmentlänge
genommen wird und der Abstand entlang des Segments bestimmt wird.
Für jede Adresse
wird daher ein Koordinatenpaar und eine Parität für die wahre Adressenposition
existieren.
-
Ein Videobild kann für jedes
Koordinatenpaar unter Verwendung eines Koordinaten-Videobild-Anpassungssystems
abgerufen werden. Die Videoinformation ist unabhängig von der Ortspositionsinformation,
und Bildrahmenberechnungen basieren auf der vorstehend diskutierten
Segment-Video-Beziehung. Dieses Verfahren ermöglicht den Abruf des bezüglich einem
Koordinatenpaar nähesten
Videobildes.
-
Ein Adressenbereich kann nach dem
Straßensegmentaktualisierungsprozeß konstruiert
werden. Die nominellen Adressenbereiche werden von der TIGER/Line-Datei
für jeden
Straßensegment
abgerufen. Das Video für
ein vorgegebenes Straßensegment
wird dargestellt, und es wird bestimmt, ob ein zusätzlicher
Adressenbereich eingefügt
werden soll. Die Adressenanpassung wird unter Verwendung der in
den TIGER/Line-Dateien gefundenen Information ausgeführt bevor
der Adressenbereich konstruiert wird. Diese Information beinhaltet
die Identifizierungen für
den Anfangsknoten und den Endknoten jedes Segments, die die tatsächlichen Koordinaten
der Endpunkte des Segments enthalten. Auf alle Formpunkte, die mit
dem Anfangs- und dem Endknoten verknüpft sind, um das Segment zu
definieren, würde
ebenfalls zugegriffen. Basierend auf den Knoten und Formpunkten
wird die Länge
des Seg ments berechnet. Die in den TIGER/Live-Dateien gefundene Information
beinhaltet außerdem
die Anfangs- und die Endadressenbereiche, die den nominellen Adressenbereich
für jedes
Segment definieren.
-
Der Adressenbereichkonstruktionsprozeß beginnt
mit dem Betrachten des Videos für
ein Segment. Wenn eine Adresse erfaßt wird, wird der Videorahmen,
auf dem sie erfaßt
wird, in Bildkoordinaten umgewandelt. Dann wird der tatsächliche
Versatz vom Anfangsknoten durch die Video-Segment-Beziehung bestimmt. Der
Operateur zeigt an, ob die Adresse vom erwarteten Bereichwert abweicht.
Wenn die Adresse nicht abweicht, wird die Parität der Adresse basierend auf
der betrachteten Kameraansicht automatisch gespeichert. Die Grobinformation
wird dann tabuliert und beinhaltet für jede Adresse den Versatz
vom Anfangsknoten, eine Information darüber, ob die Adresse einem erwarteten
Bereichwert entspricht oder davon abweicht, die vorausbestimmte
Parität
und die tatsächliche
Parität.
-
Ein nomineller Bereich innerhalb
eines Segments kann durch Einfügen
eines zusätzlichen
Bereichs oder von Abweichungspunkten geteilt werden. Dies tritt
am häufigsten
auf, wenn neue Straßen
hinzugefügt werden.
Wenn die neue Straße
senkrecht zu einer vorhandenen Straße verläuft, wird die vorhandene Straße geteilt,
und für
die geteilte Straße
werden zwei neue TLID-Identifizierungen unter Verwendung des TLID-Versatzes
erzeugt, der durch den durch den Schnittpunkt mit der neuen Straße erzeugten
neuen Knoten erzeugt wird. Der Operateur wird dann neue nominelle
Adressenbereiche für
die beiden neuen Straßensegmente
festlegen, und die alten Segmentadressenbereiche werden der geeigneten
neuen Segment-TLID-Identifizierung neu
zugeordnet. Es wird eine TLID-Identifizierung
für die
neue Straße
erzeugt, und Adressenbe reiche werden ähnlich wie bei der Anfangs-TLID-Verarbeitung
verarbeitet.
-
Obwohl beschrieben wurde, daß das Erfassungssystem 10 einen
einzigen GPS-Empfänger 24 aufweist,
kann das erfindungsgemäße System
auch mit zwei oder mehr GPS-Empfängern
oder mit einem GPS-Empfänger
mit mehreren Antennen betrieben werden. Eine solche Konfiguration
kann erwünscht
sein, um die Fahrzeugposition häufiger
zu aktualisieren, wenn im INS-System 28 ein
minderwertigeres Gyroskop verwendet wird. Die Aktualisierungen könnten dann
verwendet werden, um Fehler in den durch das INS-System 28 bereitgestellten
Meßwerten
häufiger
zu korrigieren. Außerdem
kann das Erfassungssystem 10 einen GPS-Empfänger verwenden,
der in der Lage ist, seine Ortsposition mit sechs Freiheitsgraden
bereitzustellen. Ortspositionsinformation kann auch durch andere
Vorrichtungen bereitgestellt werden, z. B. durch Kilometer- oder
Wegstreckenzähler
und Druckmeßgeräte, und
kann mit den durch den GPS-Empfänger 24 und
das INS-System 28 bereitgestellten Ortspositionsdaten korreliert
werden.
-
In der Beschreibung wurde dargestellt,
daß die
Position jeder Kamera durch die Verwendung der aufgezeichneten Ortspositionen
des Fahrzeugs 11 bekannt ist. Die Position einer Kamera
kann jedoch auch unter Verwendung dreier beliebiger Bilder des gleichen
Objekts bestimmt werden, das an GPS-Koordinaten aufgenommen wurde,
die nicht auf einer geraden Linie liegen. Diese durch drei solche
Bilder bereitgestellte Information würde ausreichen, um die sechsdimensionale
Kameraposition zu bestimmen, so daß eine photogrammetrische Analyse
ausgeführt
werden kann.
-
Obwohl beschrieben wurde, daß das Erfassungssystem 10 nur
einen Videorekorder 20 aufweist, kann das System 10 auch
so konfiguriert sein, daß es
mit zwei oder mehr Videorekordern betreibbar ist. Außerdem kann
das Erfassungssystem 10 auf oder in einer beliebigen sich
bewegenden Plattform angeordnet sein, die z. B. eine Plattform sein
kann, die durch eine einzelne Person getragen werden kann.
-
Obwohl die vorliegende Erfindung
unter Bezug auf bevorzugte Ausführungsformen
beschrieben worden ist, ist für
Fachleute ersichtlich, daß innerhalb
des durch die Patentansprüche
definierten Schutzbereichs der Erfindung Änderungen in den Ausführungsformen
und im Detail vorgenommen werden können.