DE69729684T2 - Navigationsvorrichtung mit Formveränderungsanzeigefunktion - Google Patents

Navigationsvorrichtung mit Formveränderungsanzeigefunktion Download PDF

Info

Publication number
DE69729684T2
DE69729684T2 DE69729684T DE69729684T DE69729684T2 DE 69729684 T2 DE69729684 T2 DE 69729684T2 DE 69729684 T DE69729684 T DE 69729684T DE 69729684 T DE69729684 T DE 69729684T DE 69729684 T2 DE69729684 T2 DE 69729684T2
Authority
DE
Germany
Prior art keywords
shape data
map
unit
building
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69729684T
Other languages
English (en)
Other versions
DE69729684D1 (de
Inventor
Kenichior Ohaza Yamada Yano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Publication of DE69729684D1 publication Critical patent/DE69729684D1/de
Application granted granted Critical
Publication of DE69729684T2 publication Critical patent/DE69729684T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die Erfindung betrifft eine Navigationsvorrichtung, die eine Funktion aufweist, um einen visuellen Eindruck wie bei einer planartigen Karte zu geben, die von schräg oben betrachtet wird, und außerdem eine Funktion aufweist, um Gebäude, Berge und dergleichen, die auf einer Karte angezeigt werden, stereoskopisch anzuzeigen.
  • Beschreibung des technischen Hintergrundes
  • In den letzten Jahren sind Untersuchungen zu Navigationsvorrichtungen angestellt worden, die sowohl eine Vogelperspektive-Anzeigefunktion haben, die einen visuellen Eindruck wie bei einer planartigen Karte gibt, die von schräg oben betrachtet wird, als auch eine Funktion, um Hauptzielobjekte (Gebäude, Landmarken, Berge und dergleichen), die dazu dienen, das Erkennen eines Merkmals der Karte zu unterstützen, stereoskopisch anzuzeigen (siehe z. B. EP-A-0 678 731).
  • Bei der Navigationsvorrichtung mit der stereoskopischen Anzeigefunktion tritt jedoch ein solches Problem auf, dass, wenn die Gebäude, Berge und dergleichen stereoskopisch angezeigt werden, diese andere wichtige Informationen auf der Karte verdecken, oder es schwierig ist, eine Route, die zuvor festgelegt worden ist und auf der sich ein Fahrzeug fortbewegen wird, und die momentane Position des Fahrzeugs zu erkennen.
  • Beispielsweise sind Kreuzungen verborgen, wenn die Aussicht auf sie durch das Gebäude versperrt ist, so dass Informationen, wie etwa die Gestaltung der Kreuzung oder dergleichen, die eine hohe Priorität haben und für den Anwender bei der Verwendung der Navigationsvorrichtung notwendig sind, ausfallen.
  • Wie oben erwähnt worden ist, können aus der Karte, die in einem Zustand angezeigt wird, in dem das Gebäude oder dergleichen die wichtigen Informationen auf der Karte verdeckt, nur undeutliche Informationen an einer Ecke abgeleitet werden, an der klare Informationen notwendig sind, und es ist für den Anwender schwierig, den Zielort zu erreichen.
  • AUFGABEN UND ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde angesichts der oben genannten Probleme gemacht, und es ist eine Aufgabe der Erfindung, eine neuartige Navigationsvorrichtung zu schaffen, die bevorzugt wichtige Informationen auf einer Karte erkennen kann, die durch ein Gebäude, einen Berg oder dergleichen, die stereoskopisch angezeigt werden, verdeckt werden, und die leicht eine festgelegte Route und eine momentane Position eines Fahrzeugs erkennen kann.
  • Gemäß dem ersten Aspekt der Erfindung umfasst eine Navigationsvorrichtung: ein Aufzeichnungsmedium, auf das wenigstens Kartendaten aufgezeichnet worden sind, die Straßen- und Formdaten umfassen, die in den Kartendaten enthalten sind und als Hauptlandmarkenobjekte dienen, um ein Merkmal einer Karte zu erkennen; eine Bildformungseinheit zum Formen von Bildinformationen, die eine Karte anhand der Kartendaten von einer gewünschten Betrachtrachtungspunktposition aus betrachtet auf der Grundlage der Kartendaten und der Formdaten repräsentieren; eine Anzeigeeinheit zum Anzeigen auf der Grundlage der Bildinformationen, die durch die Bildformungseinheit geformt werden; und eine Steuereinheit zum Steuern des Aufzeichnungsmediums, der Bildformungseinheit und der Anzeigeeinheit, wobei die Navigationsvorrichtung eine Formdaten-Änderungseinheit besitzt und die Steuereinheit die Formdaten-Änderungseinheit in einer Weise steuert, dass sie wenigstens einen Teil der Formdaten auf der Grundlage wenigstens der Kartendaten ändert, und außerdem die Bildformungseinheit in der Weise steuert, dass sie die Bildinformationen auf der Grundlage der Kartendaten, der Formdaten und der durch die Formdaten-Änderungseinheit geänderten Formdaten formt.
  • Gemäß dem zweiten Aspekt der Erfindung steuert in der Navigationsvorrichtung entsprechend dem ersten Aspekt der Erfindung die Steuereinheit dann, wenn ein überlappender Abschnitt eines Landmarkenobjekts und einer Straße in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst wird, die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten des überlappenden Landmarkenobjekts ändert.
  • Gemäß dem dritten Aspekt der Erfindung steuert in der Navigationsvorrichtung entsprechend dem ersten Aspekt der Erfindung die Steuereinheit dann, wenn überlappende Abschnitte mehrerer Landmarkenobjekte in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst werden, die Formdaten-Änderungseinheit in der Weise, dass sie wenigstens eine der Formdateneinheiten der überlappenden Landmarkenobjekte, die sich näher bei der Betrachtungsposition befinden, ändert.
  • Gemäß dem vierten Aspekt der Erfindung steuert in der Navigationsvorrichtung entsprechend dem ersten Aspekt der Erfindung die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten der Landmarkenobjekte in einem Bereich ändert, der in Übereinstimmung mit der momentanen Position des Fahrzeugs gesetzt wird.
  • Gemäß dem fünften Aspekt der Erfindung steuert in der Navigationsvorrichtung entsprechend dem ersten Aspekt der Erfindung die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten der Landmarkenobjekte innerhalb oder außerhalb eines Bereichs für eine gesetzte Route, die im Voraus durch Betätigungseinrichtungen gesetzt worden ist, ändert.
  • Gemäß dem sechsten Aspekt der Erfindung steuert in der Navigationsvorrichtung entsprechend dem ersten Aspekt der Erfindung die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten der Landmarkenobjekte innerhalb oder außerhalb eines Bereichs in den von der Anzeigeeinheit anzuzeigenden Bildinformationen, die durch Betätigungseinrichtungen bezeichnet wurden, ändert.
  • In der Navigationsvorrichtung gemäß dem ersten Aspekt der Erfindung, die ein Aufzeichnungsmedium, auf das wenigstens Kartendaten aufgezeichnet worden sind, die Straßen- und Formdaten umfassen, die in den Kartendaten enthalten sind und als Hauptlandmarkenobjekte dienen, um ein Merkmal einer Karte zu erkennen; eine Bildformungseinheit zum Formen von Bildinformationen einer Karte anhand von Kartendaten von einer gewünschten Betrachtrachtungspunktposition aus betrachtet auf der Grundlage der Kartendaten und der Formdaten; eine Anzeigeeinheit zum Anzeigen auf der Grundlage der Bildinformationen, die durch die Bildformungseinheit geformt werden; und eine Steuereinheit zum Steuern des Aufzeichnungsmediums, der Bildformungseinheit und der Anzeigeeinheit, umfasst, steuert die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie wenigstens einen Teil der Formdaten auf der Grundlage wenigstens der Kartendaten ändert, und außerdem die Bildformungseinheit in der Weise steuert, dass sie die Bildinformationen auf der Grundlage der Kartendaten, der Formdaten und der durch die Formdaten-Änderungseinheit geänderten Formdaten formt. Deshalb können wichtige Informationen auf der Karte, die durch die stereoskopisch angezeigten Gebäude, Berge und dergleichen verdeckt werden, bevorzugt erkannt werden, und die gesetzte Route oder die momentane Position des Fahrzeugs kann problemlos erkannt werden.
  • Wenn in der Navigationsvorrichtung gemäß dem zweiten Aspekt der Erfindung ein überlappender Abschnitt eines Landmarkenobjekts und einer Straße in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst wird, steuert die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten des überlappenden Landmarkenobjekts ändert, so dass durch die stereoskopisch angezeigten Gebäude verdeckte Straßeninformationen bevorzugt erkannt werden können.
  • Wenn in der Navigationsvorrichtung gemäß dem dritten Aspekt der Erfindung überlappende Abschnitte mehrerer Landmarkenobjekte in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst werden, steuert die Steuereinheit die Formdatenänderungseinheit in der Weise, dass sie wenigstens eine der Formdateneinheiten der überlappenden Landmarkenobjekte, die sich näher bei der Betrachtungsposition befinden, ändert, so dass selbst dann, wenn ein Gebäude, das als ein Landmarkenobjekt an einer Position nahe einer Kreuzung steht, durch ein anderes stereoskopisch angezeigtes Gebäude verdeckt wird, das als ein Landmarkenobjekt dienende Gebäude bevorzugt erkannt werden kann.
  • In der Navigationsvorrichtung gemäß dem vierten Aspekt der Erfindung steuert die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten der Landmarkenobjekte in einem Bereich ändert, der in Übereinstimmung mit der momentanen Position des Fahrzeugs gesetzt wird, so dass die momentane Position des Fahrzeugs auf einer Karte, auf der Gebäude, Berge und dergleichen stereoskopisch angezeigt werden, problemlos erkannt werden kann.
  • In der Navigationsvorrichtung gemäß dem fünften Aspekt der Erfindung steuert die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten der Landmarkenobjekte innerhalb oder außerhalb eines vorgegebenen Be reichs für die gesetzte Route, die im Voraus durch Betätigungseinrichtungen gesetzt worden ist, ändert, so dass die gesetzte Route auf einer Karte, auf der Gebäude, Berge und dergleichen stereoskopisch angezeigt werden, problemlos erkannt werden kann.
  • In der Navigationsvorrichtung gemäß dem sechsten Aspekt der Erfindung steuert die Steuereinheit die Formdaten-Änderungseinheit in der Weise, dass sie die Formdaten von Landmarkenobjekten innerhalb oder außerhalb eines vorgegebenen Bereichs in den von der Anzeigeeinheit anzuzeigenden Bildinformationen, die durch Betätigungseinrichtungen bezeichnet wurden, ändert, so dass Informationen auf einer Karte, wie etwa ein Straßenzustand eines Bereichs, den der Bediener auf einer Karte, auf der Gebäude, Berge und dergleichen stereoskopisch angezeigt werden, erkennen möchte, geklärt werden können.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist ein Blockdiagramm, das einen schematischen Aufbau einer Navigationsvorrichtung in einer denkbaren Technik zeigt;
  • 2A bis 2D sind Schaubilder, die ein Beispiel für eine Datenstruktur von Kartendaten und Formdaten in einem Aufzeichnungsmedium 4 der Navigationsvorrichtung in der denkbaren Technik zeigen;
  • 3 ist ein Funktionsablaufplan einer Steuereinheit 1 für die Navigationsvorrichtung in der denkbaren Technik, um eine Karte, Gebäude und dergleichen anzuzeigen;
  • 4 ist ein Ablaufplan, der Verarbeitungen zeigt, in denen eine Bildformungseinheit 3 der Navigationsvorrichtung in der denkbaren Technik Formdaten eines Gebäudes für die Projektion konvertiert;
  • 5 ist ein 4 entsprechendes Schaubild;
  • 6 ist ein Ablaufplan, der Verarbeitungen zeigt, in denen die Bildformungseinheit 3 der Navigationsvorrichtung in der denkbaren Technik Formdaten eines Berges für die Projektion konvertiert;
  • 7 ist ein 6 entsprechendes Schaubild;
  • 8A bis 8C sind Schaubilder, die einen Zustand zeigen, in dem die Bildformungseinheit 3 der Navigationsvorrichtung in der denkbaren Technik ein Verfahren für verdeckte Flächen an den Bildinformationen ausführt, die für eine Anzeige eines projizierten Bildes konvertiert wurden;
  • 9 ist ein Ablaufplan, der einen Zustand zeigt, in dem die Bildformungseinheit 3 der Navigationsvorrichtung in der denkbaren Technik ein Verfahren für verdeckte Flächen an den Bildinformationen ausführt, die für eine Anzeige eines projizierten Bildes konvertiert wurden;
  • 10A bis 10D sind Schaubilder, die Beispiele für eine Anzeige mittels der denkbaren Technik zeigen;
  • 11 ist ein Schaubild zur Erläuterung eines Zustands, in dem die Bildformungseinheit 3 der Navigationsvorrichtung in der denkbaren Technik Kartendaten für eine Projektion konvertiert;
  • 12 ist ein Blockdiagramm, das einen schematischen Aufbau der Navigationsvorrichtungen in der ersten und der zweiten Ausführungsform der Erfindung zeigt;
  • 13 ist ein Ablaufplan, der die Funktionsweise der Navigationsvorrichtung in der ersten Ausführungsform der Erfindung zeigt;
  • 14A bis 14C sind Schaubilder, die die Funktionsweise einer Koordinatenänderungseinheit 9 der Navigationsvorrichtung in der ersten Ausführungsform der Erfindung zeigen;
  • 15 ist ein Ablaufplan, der die Funktionsweise der Navigationsvorrichtung in der ersten Ausführungsform der Erfindung zeigt;
  • 16 ist ein Schaubild, das die Wirkung der Navigationsvorrichtung in der ersten Ausführungsform der Erfindung zeigt;
  • 17A bis 17C sind Schaubilder, die die Funktionsweise der Koordinatenänderungseinheit 9 der Navigationsvorrichtung in der ersten Ausführungsform der Er findung zeigen;
  • 18 ist ein Ablaufplan, der die Funktionsweise der Navigationsvorrichtung in der zweiten Ausführungsform der Erfindung zeigt;
  • 19A bis 19D sind Schaubilder, die die Funktionsweise der Koordinatenänderungseinheit 9 der Navigationsvorrichtung in der zweiten Ausführungsform der Erfindung zeigen; und
  • 20A bis 20C sind Schaubilder, die die Funktionsweise der Koordinatenänderungseinheit 9 der Navigationsvorrichtung in der zweiten Ausführungsform der Erfindung zeigen.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Bevor Ausführungsformen ausführlich beschrieben werden, wird jetzt ein möglicher Aufbau in Bezug auf eine Navigationsvorrichtung beschrieben, die eine Funktion einer stereoskopischen Anzeige von Gebäuden, Bergen und dergleichen aufweist.
  • Als Navigationsvorrichtung wie oben erwähnt ist beispielsweise ein Aufbau denkbar, wie er in 1 gezeigt ist.
  • Die in 1 gezeigte Navigationsvorrichtung umfasst eine Steuereinheit 1, eine Betätigungseinheit 2, eine Bildformungseinheit 3, ein Aufzeichnungsmedium 4, eine Bildanzeigeeinheit 5, eine Fahrzeugpositionsmesseinheit 6, einen Programm-ROM und einen RAM 8.
  • In 1 steuert die Steuereinheit 1 die gesamte Navigationsvorrichtung durch richtiges Nutzen des RAMs 8 entsprechend einem Programm, das im Programm-ROM 7 gespeichert ist.
  • Die Fahrzeugpositionsmesseinheit 6 misst die momentane Position eines Fahrzeugs mittels eines (nicht gezeigten) GPS- (Global Positioning System) Empfängers, eines Gyro-Sensors und dergleichen.
  • Die Betätigungseinheit 2 ermöglicht eine manuelle Eingabe, um eine Betrachtungspunktposition, eine Visierlinienrichtung, eine Anzeigeposition auf einer Karte oder dergleichen zu setzen. Die eingegebenen Setzinformationen werden an die Steuereinheit 1 ausgegeben.
  • In dem Aufzeichnungsmedium 4 sind verschiedene Daten, wie etwa Kartendaten, Formdaten von Gebäuden, Bergen und dergleichen gespeichert. Auf der Grundlage der Steuerung durch die Steuereinheit 1 werden die Kartendaten einschließlich der momentanen Position des Fahrzeugs oder der Position, die mittels der Betätigungseinheit 2 bezeichnet worden ist, von einer (nicht gezeigten) Datenzugriffseinrichtung ausgelesen und in den RAM 8 gespeichert.
  • Die Bildformungseinheit 3 führt ein "Projektionskonvertierungsverfahren" aus, um Bildinformationen der Kartendaten und der Formdaten der Gebäude, Berge usw. zu erzielen, die auf der Grundlage der Kartendaten, die in dem RAM 8 gespeichert sind, der Formdaten der Gebäude, Berge usw., die mit den Kartendaten verknüpft worden sind und in dem RAM 8 gehalten werden, der Betrachtungspunktposition und der Visierlinienrichtung und eines Verfahren für verdeckte Flächen der erhaltenen Bildinformationen auf eine Projektionsfläche (Anzeigefläche) projiziert werden und sendet die resultierenden, verarbeiteten Bildinformationen zu der Bildanzeigeeinheit 5.
  • Die Bildanzeigeeinheit 5 führt entsprechend den empfangenen Bildinformationen eine Anzeige aus.
  • Der oben angegebene Aufbau skizziert die Navigationsvorrichtung.
  • 2A bis 2D zeigen ein Beispiel für Strukturen der Kartendaten und Formdaten in dem Aufzeichnungsmedium 4 in 1.
  • 2A skizziert die Datenstruktur.
  • Die verschiedenen Daten, die in dem Aufzeichnungsmedium 4 gehalten werden, sind in Kartendaten und Formdaten der Gebäude, Berge usw. unterteilt, wie in 2A gezeigt ist.
  • Die Kartendaten sind gebildet aus: Karteninformationen, um eine Karte selbst aufzubereiten, Verbindungsinformationen, die die Positionen der Gebäude, Berge usw. angeben, die in der angezeigten Karte vorhanden sind, und einer Adresse, in welche die Formdaten der Gebäude, Berge usw. geschrieben sind.
  • Wie in 2B gezeigt ist, sind die Formdaten aus einem Code, einem Kopf 1, eigentümlichen Informationen und Forminformationen gebildet.
  • Die Forminformationen geben die Form jedes Gebäudes, Bergs usw. auf der Karte an.
  • Der Code hat die Aufgabe einer Kennzeichnung, die ein Gebäude oder einen Berg angibt. Der Kopf 1 gibt eine Datenlänge für jeden der Berge und jedes der Gebäude an.
  • Die eigentümlichen Informationen umfassen Informationen wie etwa den Namen eines Bergs oder Gebäudes oder dergleichen, der im eigen ist.
  • Die Forminformationen für Gebäude und jene für Berge sind voneinander verschieden.
  • 2C und 2D zeigen Datenstrukturen der Forminformationen für Berge und jene für Gebäude.
  • Wie in 2C gezeigt ist, sind die Formdaten des Berges aus einem Kopf 2, Konturdaten, Höheninformationen und Farbinformationen gebildet. Jede Konturdateneinheit ist aus Konturpunktkoordinaten gebildet, aus denen jede Konturlinie konstruiert ist.
  • Der Kopf 2 ist aus der Anzahl der Konturlinien und der Anzahl der Koordinaten jeder Konturlinie gebildet.
  • Wie in 2D gezeigt ist, sind die Forminformationen des Gebäudes aus einem Kopf 3, Koordinateninformationen, Höheninformationen und Farbinformationen gebildet.
  • Der Kopf 3 ist aus der Anzahl der Koordinaten eines Gebäudes gebildet.
  • Es wird nun ausführlich die Funktionsweise der aus den obigen Vorrichtungen aufgebauten Navigationsvorrichtung beschrieben. Der Betrieb erfolgt hauptsächlich mittels der Steuereinheit 1. 3 zeigt einen Funktionsablaufplan der Steuereinheit 1 für die Navigationsvorrichtung in 1, um eine Karte, Gebäude und dergleichen anzuzeigen.
  • Zuerst werden im Schritt S1201 die Kartendaten einschließlich der momentanen Position des Fahrzeugs, die von der Fahrzeugpositionsmesseinheit 6 abgeleitet wird, und der Anzeigeposition, die mittels der Betätigungseinheit 2 bezeichnet worden ist, aus dem Aufzeichnungsmedium 4 ausgelesen und in den RAM 8 eingelesen.
  • Im Schritt S1202 werden die Formdaten der Berge, Gebäude usw. auf der Karte auf der Grundlage der Verbindungsinformationen in den Kartendaten ausgelesen und in den RAM 8 eingelesen.
  • Im Schritt S1203 werden die Betrachtungspunktposition und die Visierlinienrichtung gesetzt, die angeben, von welcher Betrachtungspunktposition auf der Karte der Bediener in welche Visierlinienrichtung blickt. Beispielsweise wird der Fahrersitz als Betrachtungspunktposition festgelegt, wobei die Visierlinienrichtung in Fahrtrichtung festgelegt wird. Die Betrachtungspunktposition und die Visierlinienrichtung können auch mittels der Betätigungseinrichtung 2 gesetzt werden.
  • Im Schritt S1204 werden die Bildinformationen der Kartendaten, die auf die Projektionsfläche projiziert werden, auf der Grundlage der Kartendaten, die in den RAM 8 eingelesen werden, der Betrachtungspunktposition und der Visierlinienrichtung geformt, wodurch eine Projektionskonvertierung der Kartendaten ausgeführt wird.
  • Die Verarbeitung im Schritt S1204 kann in der Weise verwirklicht werden, dass Bildinformationen erzielt werden, die durch Projizieren einer Karte aus den Kartendaten M, die in den RAM 8 eingelesen werden, auf eine Projektionsfläche S erhalten werden, wobei von einer Betrachtungspunktposition V heruntergeschaut wird. Die Einzelheiten des Projektionskonvertierungsverfahrens für die Kartendaten werden hier übergangen, da sie beispielsweise in 11 gezeigt sind.
  • Im Schritt S1205 wird geprüft, ob das Projektionskonvertierungsverfahren für alle Formdaten abgeschlossen ist. Wenn nicht, geht das verarbeitende Unterprogramm zum Schritt S1206 weiter.
  • Im Schritt S1206 wird anhand des Codes, der in 2A bis 2D angegeben ist, unterschieden, ob sich die Formdaten auf Bergdaten oder auf Gebäudedaten beziehen. In den Schritten S1207 und S1208 werden die Bildinformationen einer Ansicht, die durch Projizieren des Berges oder des Gebäudes auf die Projektionsfläche erhalten wird, auf der Grundlage der Betrachtungspunktposition, der Visierlinienrichtung und der Formdaten des Berges oder Gebäudes geformt, wodurch die Projektionskonvertierung des Berges oder des Gebäudes ausgeführt wird.
  • Wenn im Schritt S1205 das Projektionskonvertierungsverfahren für alle Formdaten abgeschlossen ist, wird im Schritt S1209 an den gebildeten Bildinformationen das Verfahren für verdeckte Flächen ausgeführt. Die Einzelheiten des Verfahrens für verdeckte Flächen werden später beschrieben.
  • Im Schritt S1210 werden die Bildinformationen, die dem Verfahren für verdeckte Flächen unterzogen wurden, an die Bildanzeigeeinheit 5 übertragen, und es erfolgt eine Anzeige entsprechend den Bildinformationen.
  • Die Projektionskonvertierung der Kartendaten und der Formdaten, das Verfahren für verdeckte Flächen und dergleichen werden in der Bildformungseinheit 3 in 1 ausgeführt. Die Steuereinheit überträgt genau genommen die erforderlichen Daten und dergleichen.
  • Die Verfahren zur Projektionskonvertierung der Formdaten der Gebäude und Berge in den Schritten S1207 und S1208 sind in 4 und 5 bzw. in 6 und 7 gezeigt.
  • In 4 werden zunächst im Schritt S1301, wie in 5 gezeigt ist, Anzeigekoordinaten P1 bis P4 auf der Grundlage der oben erwähnten Gebäudeformdaten, der Betrachtungspunktposition und der Visierlinienrichtung erhalten, wobei die entsprechenden Koordinaten durch Geraden verbunden werden.
  • Im Schritt S1302 werden Liniensegmente in der Höhenrichtung auf der Grundlage der Höheninformation verbunden, wodurch eine Projektionsdarstellung des Ge bäudes gebildet wird.
  • In 6 werden zunächst im Schritt S1402, wie in 7 gezeigt ist, Anzeigekoordinaten jeder Konturlinie auf der Grundlage der oben erwähnten Bergformdaten, der Betrachtungspunktposition und der Visierlinienrichtung erhalten. Die entsprechenden Koordinaten werden durch Geraden miteinander verbunden.
  • Im Schritt S1403 werden Liniensegmente in der Höhenrichtung auf der Grundlage der Höheninformationen verbunden.
  • Die oben angegebenen Verarbeitungen werden nur so oft wiederholt, dass der Anzahl der Konturlinien entsprochen wird, wobei die resultierenden Daten gestapelt werden, wodurch ein Bild eines Bergs geformt wird (Schritt S1401).
  • Es wird nun das Verfahren verdeckter Flächen, das im Schritt S1209 in 3 ausgeführt wird, mit Bezug auf 8A bis 8C und 9 ausführlich beschrieben.
  • 8A zeigt einen Zustand, in dem eine Projektionsdarstellung der Gebäude A und B in dem Fall, in dem die Gebäude A und B von der Betrachtungspunktposition V gesehen werden, auf der Projektionsfläche (Schirm S) gebildet wird.
  • Für eine einfache Erläuterung wird angenommen, dass eine Fläche FA des Gebäudes A und eine Fläche FB des Gebäudes B parallel zum Schirm S angeordnet sind, der Abstand von der Betrachtungspunktposition V zur Fläche FA auf (a) gesetzt ist und der Abstand von der Betrachtungspunktposition V zur Fläche FB auf (b) gesetzt ist.
  • 9 ist ein Ablaufdiagramm, das eine Prozedur für eine Projektionskonvertierung der Gebäude A und B auf die Projektionsfläche zeigt, die ferner das Verfahren für verdeckte Flächen ausführt.
  • Zunächst wird im Schritt S1601 das Gebäude A für die Projektion auf den Schirm S konvertiert ("projektionskonvertiert"). Ein Ergebnis der Projektionskonvertierung ist in 8B gezeigt.
  • 8B zeigt einen Zustand, in dem die Bildinformationen in dem Fall, in dem das Gebäude A für die Projektion auf den Schirm S konvertiert wird, auf der Grundlage der Formdaten des Gebäudes A und der im Voraus gesetzten Betrachtungspunktposition und Visierlinienrichtung erhalten wurden. Die Bildinformationen bestehen aus den Informationen, die jedes Pixel besitzt, aus dem das Bild aufgebaut ist.
  • Die Informationen, die jedes Pixel in 8 besitzt, sind beispielsweise aus den Farbinformationen, die aus der Datenstruktur von 2D erhalten werden, und dem Abstandswert von der Betrachtungspunktposition zu einem anzuzeigenden Objekt gebildet. Für eine einfache Erläuterung sind jedoch in 8B und 8C nur die Abstandswerte von der Betrachtungspunktposition zu dem anzuzeigenden Objekt gezeigt.
  • D. h. das Bild des Gebäudes A auf dem Schirm S ist aus Pixeln gebildet, welche die Informationen (a) (Abstandswert von der Betrachtungspunktposition V), wie in 8B gezeigt ist, besitzen, wobei die Informationen der anderen Pixel beispielsweise auf ∞ (unendlich) gesetzt sind.
  • Auf ähnliche Weise wie oben werden im Schritt S1602 die Bildinformationen in dem Fall erhalten, in dem das Gebäude B für die Projektion auf den Schirm S konvertiert wird. Ein Ergebnis ist in 8C gezeigt.
  • In diesem Fall, wenn ein beliebiges Pixel mehreren anzuzeigenden Objekten entspricht, wenn es nämlich einen Abschnitt (ein überlappendes Pixel) gibt, in dem das Gebäude B, wenn es von der Betrachtungspunktposition V aus betrachtet wird, durch das Gebäude A verdeckt wird, wie in 8C gezeigt ist (das verarbeitende Unterprogramm hat sich im Schritt S1603 zu "ja" verzweigt), werden beide Bildinformationseinheiten des überlappenden Pixels im Schritt S1604 miteinander verglichen.
  • D. h. der Abstandswert (a) des Pixels des Gebäudes A und der Abstandswert (b) des Pixels des Gebäudes B werden verglichen. Wenn a > bist, nämlich, wenn entschieden wird, dass sich das Gebäude A an einer Position hinter dem Gebäude B befindet, wenn sie von der Betrachtungspunktposition V aus betrachtet werden, werden die Farbinformationen des Pixels eines überlappenden Abschnitts G durch die Farbinformationen des Gebäudes B bestimmt, und es wird ein entsprechendes Bild gezeichnet. Andernfalls, wenn b > a ist, nämlich, wenn bestimmt wird, dass sich das Gebäude B an einer Position hinter dem Gebäude A befindet, werden die Farbinformationen des Pixels des überlappenden Abschnitts G durch die Farbinformationen des Gebäudes A bestimmt, und es wird ein entsprechendes Bild gezeichnet (Schritte S1605, S1606). Das Beispiel von 8C bezieht sich auf den Fall b > a, der in 8A gezeigt ist.
  • Durch das oben erwähnte Verfahren für verdeckte Flächen, das in 8C gezeigt ist, wird ein Zustand angezeigt, bei dem ein Teil des Gebäudes B durch das Gebäude A verdeckt wird, wobei ferne und nahe Standorte einer Vielzahl von Objekten klar unterschieden werden.
  • Da bei der Navigationsvorrichtung mit der stereoskopischen Anzeigefunktion Gebäude, Berge und dergleichen stereoskopisch angezeigt werden, tritt jedoch ein solches Problem auf, dass die Gebäude, Berge und dergleichen andere wichtige Informationen auf der Karte verbergen oder es schwierig ist, die Route, die zuvor für einen Fahrtenplan festgelegt worden ist, oder die momentane Position des Fahrzeugs zu erkennen.
  • Es wird nun eine Erläuterung mit Bezug auf 10A als Beispiel gegeben. Die Kreuzung wird durch ein Gebäude B1 verdeckt, und Informationen, wie etwa die Gestaltung der Kreuzung oder dergleichen, die eine hohe Priorität haben, die erforderlich ist, wenn der Anwender die Navigationsvorrichtung benutzt, fallen aus.
  • Entsprechend der Karte, die in einem Zustand angezeigt wird, in dem die Gebäude oder dergleichen die wichtigen Informationen auf der Karte verbergen, wie oben erwähnt worden ist, werden an einer Ecke, an der klare Informationen erforderlich sind, nur undeutliche Informationen abgeleitet, und es ist schwierig, den Zielort zu erreichen.
  • In dem Beispiel von 10D ist es schwierig, eine gesetzte Route R und eine momentane Position P des Fahrzeugs zu erkennen, und es ist nicht leicht, sich entsprechend der Anzeige der Karte wie oben erwähnt die festgelegte Route entlangzubewegen.
  • AUSFÜHRUNGSFORMEN
  • Im Folgenden werden mit Bezug auf die Zeichnung Ausführungsformen der Erfindung beschrieben.
  • Erste Ausführungsform
  • 12 ist ein Blockdiagramm, das einen schematischen Aufbau einer Navigationsvorrichtung zeigt, die in der Ausführungsform eine stereoskopische Anzeigefunktion für Gebäude, Berge usw. aufweist.
  • Die Navigationsvorrichtung von 12 ist durch Hinzufügen einer Koordinatenänderungseinheit zu dem Aufbau von 1 gebildet worden, wobei beabsichtigt ist, die Höheninformationen in den Formdaten der Gebäude, Berge usw. mittels der Koordinatenänderungseinheit 9 mit einem Verfahren, das später erläutert wird, zu ändern.
  • Nachfolgend wird nun die Funktionsweise der Navigationsvorrichtung in der Ausführungsform beschrieben. Der Betrieb erfolgt hauptsächlich mittels der Steuerung durch die Steuereinheit 1. Ein Funktionsablaufplan der Steuereinheit 1 der Navigationsvorrichtung in 12 ist in 13 gezeigt.
  • Zuerst werden die momentane Position des Fahrzeugs, die Kartendaten, einschließlich der Position, die durch die Betätigungseinheit 2 bezeichnet ist, und die Formdaten von Gebäuden, Bergen usw. aus dem Speichermedium 4 ausgelesen, und das Projektionskonvertierungsverfahren und das Verfahren für verdeckte Flächen werden auf eine Weise ausgeführt, die den Schritten S1201 bis S1209 in 3 ähnlich ist.
  • In der Ausführungsform werden gegebenenfalls die Höheninformationen der Formdaten der Gebäude, Berge usw. weiter verändert.
  • Die obigen Verfahren werden in den Schritten S201 bis S207 in 13 ausgeführt und werden nachfolgend mit Bezug auf 14 als Beispiel ausführlich erläutert.
  • Zunächst wird im Schritt S201 geprüft, ob in den Kartendaten, die zur Anzeige zu bringen sind, Verbindungsinformationen vorhanden sind, die das Vorhandensein des Gebäudes angeben. Wenn ja, geht das verarbeitende Unterprogramm zum Schritt S202 weiter.
  • Beispielsweise wird im Fall von 14A bestimmt, dass es Informationen gibt, die angeben, dass das Gebäude B an einer Position nahe einer Kreuzung A steht.
  • Im Schritt S202 wird geprüft, ob in dem Bild, welches das Gebäude in der Projektionsdarstellung konstruiert, die in den Schritten S1201 bis S1209 geformt wird, ein mit den Bildinformationen der Straße überlappender Abschnitt vorhanden ist. Beispielsweise entspricht im Fall einer Projektionsdarstellung, wie sie in 14B gezeigt ist, ein schraffierter Abschnitt C dem überlappenden Abschnitt.
  • Für "ja" im Schritt S202 geht das ausführende Unterprogramm zum Schritt S203 weiter, und die Informationen des überlappenden Abschnitts, nämlich die Abstandswerte von der Betrachtungspunktposition aus, werden für die einzelnen Bilder verglichen. Wenn nun beispielsweise im Fall von 14B angenommen wird, dass die Abstandswerte von der Betrachtungspunktposition zu dem Gebäude B und der Straße auf Db bzw. Dr gesetzt sind (für eine einfache Erläuterung wird angenommen, dass jeder davon aus einem Abstandswert besteht), geht das verarbeitende Unterprogramm zum Schritt S204 weiter, wenn Db < Dr, nämlich, wenn entschieden wird, dass das Gebäude B die Straße nahe der Kreuzung verdeckt, wenn sie von der Betrachtungspunktposition aus betrachtet werden.
  • Im Schritt S204 wird eine Länge von der Spitze des Gebäudes zur Unterkante des überlappenden Abschnitts berechnet. Im Fall von 14b entspricht h dieser Länge.
  • Im Schritt S205 wird von der Koordinatenänderungseinheit 9 nur die im Schritt S204 berechnete Länge h von den Höheninformationen in den Formdaten des Gebäudes subtrahiert. D. h. wenn das Gebäude mit einer um die Länge h verminderten ursprünglichen Höhe angezeigt wird, kann die durch das Gebäude verdeckte Straße gesehen werden.
  • Im Schritt S206 werden Bildinformationen für den Fall erhalten, dass das Bild, das auf die Projektionsfläche projiziert wird, auf der Grundlage der geänderten Form- und Kartendaten erhalten wird.
  • Im Schritt S207 werden die geänderten Bildinformationen an die Bildanzeigeeinheit 5 übertragen, und es wird ein entsprechendes Bild angezeigt.
  • Durch Ausführen der oben erwähnten Verarbeitungen in den Schritten S201 bis S207 kann beispielsweise eine Anzeige geschaffen werden, wie sie in 14C gezeigt ist, die einen Straßenzustand nahe der Kreuzung klärt.
  • Die Ausführungsform kann außerdem auf einen Fall angewendet werden, in dem eine von der Straße in der Nähe der Kreuzung verschiedene Straße durch das Gebäude verdeckt ist, wie in 10A gezeigt ist. Es versteht sich offensichtlich von selbst, dass in diesem Fall der Zustand der Straße, die von Straße nahe der Kreuzung verschieden ist, klar angezeigt werden kann, wie in 5 gezeigt ist.
  • Ferner kann die Ausführungsform auch auf einen Fall der Lösung eines solchen Problems angewendet werden, wie es in 10B dargestellt ist, wo ein Gebäude B2 an einer Position nahe der Kreuzung durch ein anderes Gebäudes B3 verdeckt wird und Informationen bezüglich des Gebäudes B2 als ein Landmarkenobjekt zur Erkennung der Kreuzung undeutlich sind.
  • Ein Ablauf der Verarbeitungen in dem obigen Fall ist in 15 gezeigt und wird mit Bezug auf 17A bis 17C als Beispiel ausführlich erläutert.
  • Zunächst werden die Kartendaten einschließlich der momentanen Position des Fahrzeugs oder der Position, die durch die Betätigungseinheit bezeichnet worden ist, und die Formdaten von Gebäuden, Bergen usw. aus dem Speichermedium 4 ausgelesen. Das Projektionskonvertierungsverfahren und das Verfahren für verdeckte Flächen werden in einer Weise ausgeführt, die den Schritten S1201 bis S1209 in 12 ähnlich ist.
  • Im Schritt S401 wird geprüft, ob in den Kartendaten, die angezeigt werden sollen, Informationen über eine Kreuzung vorhanden sind.
  • Das oben angegebene Unterscheidungsverfahren kann beispielsweise verwirklicht werden, indem zuvor Informationen hinzugefügt werden, die das Vorhandensein der Kreuzung in den Kartendaten angeben, und indem unterschieden wird, ob die Informationen über die Kreuzung in einem anzuzeigenden Bereich der Kartendaten vorliegen.
  • Wenn entschieden worden ist, dass die Informationen vorhanden sind, wird im Schritt S402 geprüft, ob es Verbindungsinformationen der Gebäude in einem Bereich vorgegebener Entfernung von den die Kreuzung konstruierenden Koor dinaten gibt.
  • Wenn 17A als Beispiel betrachtet wird, so gibt es in einer vorgegebenen Entfernung D von den die Kreuzung konstruierenden Koordinaten 1 Verbindungsinformationen des Gebäudes B2.
  • Wenn im Schritt S402 festgestellt wird, dass welche vorhanden sind, folgt der Schritt S403, und es wird geprüft, ob es in den Bildinformationen des entsprechenden Gebäudes einen überlappenden Abschnitt mit Bildinformationen eines anderen Gebäudes gibt.
  • Wenn 17B als Beispiel betrachtet wird, entspricht ein schraffierter Abschnitt dem überlappenden Abschnitt.
  • Wenn im Schritt S403 festgestellt wird, dass ein überlappender Abschnitt vorhanden ist, folgt der Schritt S404, und es wird jede Bildinformationseinheit in dem überlappenden Abschnitt, nämlich ein Wert für den Abstand von der Betrachtungspunktposition, verglichen.
  • Beispielsweise sei nun angenommen, dass im Schritt S404 die Abstandswerte von der Betrachtungspunktposition zu den Gebäuden B2 und B3 in 17A bis 17C auf b2 bzw. b3 gesetzt worden sind, wobei b2 > b3 ist, und es ist möglich zu entscheiden, dass das Gebäude B3 mit einem Abstandswert vorhanden ist, derart, dass es das Gebäude B2 verdeckt.
  • Wenn nämlich im Schritt S404 in den Bildinformationen über das Gebäude, das an einer Position nahe der Kreuzung vorhanden ist, eine Überlappung mit einem anderen Gebäude mit einem Abstandswert, der kleiner als der Abstandswert des Gebäudes ist, erfasst wird, wird im Schritt S405 eine Höhe des überlappenden Abschnitts berechnet.
  • Bei Betrachtung von 17B als Beispiel wird die Höhe h berechnet, die dem Abstand von der Spitze des Gebäudes B3 zur Unterkante des überlappenden Abschnitts entspricht.
  • Im Schritt S406 wird nur die Höhe (h in 17B), die dem überlappenden Abschnitt entspricht, von den Höheninformationen in den Formdaten des Gebäudes abgezogen, bei dem ein überlappender Abstandswert klein ist. Im Schritt S407 werden Bildinformationen für den Fall erhalten, dass das Bild, das auf die Projektionsfläche projiziert wird, auf der Grundlage der Kartendaten und der geänderten Formdaten erhalten wird (17C).
  • Im Schritt S408 werden die geformten Bildinformationen an die Bildanzeigeeinheit 5 übertragen, und es wird eine den Bildinformationen entsprechende Anzeige angezeigt.
  • Beispielsweise durch Ausführen der Verarbeitungen in den Schritten S401 bis S408 werden die wie in 17B dargestellt angezeigten Gebäude wie in 17C dargestellt angezeigt, und die Gebäude, die sich an einer Position nahe der Kreuzung befinden, können klar angezeigt werden.
  • In den Schritten S204, S205, S405 und S406 wird die Länge von der Spitze des Gebäudes zur Unterkante des überlappenden Abschnitts von den ursprünglichen Höheninformationen subtrahiert. Die Erfindung ist jedoch nicht auf dieses Verfahren beschränkt, sondern es versteht sich offensichtlich von selbst, dass eine ähnliche Wirkung durch Ändern der Höheninformationen des Gebäudes auf eine solche Höhe erreicht wird, dass der Abschnitt, der durch Gebäude verdeckt wird, erkannt werden kann, oder durch Setzen der Höheninformationen der Gebäude, ungeachtet der Abmessungen des überlappenden Abschnitts auf 0 erreicht wird.
  • Zweite Ausführungsform
  • Im Folgenden wird die zweite Ausführungsform beschrieben, welche die Aufgaben der Erfindung löst. Die zweite Ausführungsform betrifft eine Navigationsvorrichtung, welche die gesetzte Route oder die momentane Position des Fahrzeugs leicht erkennen kann.
  • Die Navigationsvorrichtung ist wie in 12 gezeigt aufgebaut und wird durch die Verarbeitungen der Steuereinheit verkörpert.
  • In 18 ist ein Ablaufplan für Verarbeitungen der Steuereinheit 1 gezeigt, der mit Bezug auf 19A bis 19D als Beispiel erläutert wird.
  • Zuerst werden die Kartendaten einschließlich der momentanen Position des Fahr zeugs oder der Position, die durch die Betätigungseinheit 2 bezeichnet worden ist, und die Formdaten von Gebäuden, Bergen usw. aus dem Speichermedium 4 ausgelesen, und es werden das Projektionskonvertierungsverfahren und das Verfahren für verdeckte Flächen auf ähnliche Weise wie in den Schritten S1201 bis S1209 in 3 ausgeführt.
  • Im Schritt S701 wird geprüft, ob in den anzuzeigenden Kartendaten Informationen über die gesetzte Route (R in 19A) vorhanden sind.
  • Da die Routeninformationen, die durch die Navigationsvorrichtung im Voraus gesetzt worden sind, auch auf einer zweidimensionalen Karte unterschieden werden können, ist es auch möglich, bevor die Projektionskonvertierung ausgeführt wird, statt nach Abschluss der Projektionskonvertierung, zu unterscheiden, ob die gesetzte Route in den Karteninformationen vorhanden ist.
  • Wenn im Schritt S701 bestimmt wird, dass die Route vorhanden ist, folgt der Schritt S702.
  • Im Schritt S702 wird geprüft, ob es Verbindungsinformationen gibt, die das Vorhandensein des Gebäudes außerhalb eines Bereichs vorgegebener Entfernung von der gesetzten Route (schraffierter Abschnitt in einem Bereich vorgegebener Entfernung D in 19A) angeben. Wenn festgestellt wird, dass die Verbindungsinformationen vorhanden sind, folgt der Schritt S703.
  • Im Schritt S703 werden die Höheninformationen in den Formdaten des relevanten Gebäudes in eine geringe Höhe geändert.
  • Im Schritt S704 werden Bildinformationen für die Projektion auf die Projektionsfläche auf der Grundlage der geänderten Formdaten und der Kartendaten gebildet.
  • Die Verarbeitungen in den Schritten S701 bis S704 werden in Bezug auf all die Gebäude ausgeführt, die außerhalb des Bereichs vorgegebener Entfernung von der gesetzten Route vorhanden sind. Im Schritt S705 werden die gebildeten Bildinformationen an die Bildanzeigeeinheit 5 übertragen, und es wird eine den Bildinformationen entsprechende Anzeige bewerkstelligt.
  • Durch Ausführen der Verarbeitungen in den Schritten S701 bis S705, beispielsweise, wenn die Höhen von Gebäuden, die außerhalb des Bereichs vorgegebener Entfernung von der gesetzten Route vorhanden sind, auf niedrige Höhen gesetzt werden, werden sie, wie in 19B gezeigt ist, so angezeigt, dass die Gebäude an der gesetzten Route leichter als jene in 10D erkannt werden können.
  • Im Schritt S703 sind die Höheninformationen in Bezug auf die Gebäude außerhalb des Bereichs vorgegebener Entfernung von der gesetzten Route geändert worden. Hingegen kann im Fall der Änderung der Höheninformationen in Bezug auf die Gebäude in dem Bereich vorgegebener Entfernung eine solche Wirkung erzielt werden, dass die gesetzte Route leichte erkannt werden kann.
  • Durch Ersetzen der Verarbeitungen in den Schritten S701 und S702 durch eine Verarbeitung, die unterscheidet, ob sich die Gebäude hinter (oder vor) der momentanen Position des Fahrzeugs befinden, wenn sie beispielsweise von der Fortbewegungsrichtung des Fahrzeugs aus betrachtet werden, werden die Höheninformationen der Gebäude, die in dem schraffierten Abschnitt in 19C vorhanden sind, geändert, und die Gebäude werden, wie in 19D gezeigt ist, angezeigt. Die momentane Position P des Fahrzeugs kann folglich leicht erkannt werden, und es kann eine Situation auf einer Karte mit den Straßen, Gebäuden usw. hinter (oder vor) der momentanen Position P problemlos erkannt werden.
  • Ferner ist es durch ein ähnliches Verfahren auch möglich, mit einer Regel zu konstruieren, so dass ein gewünschter Bereich (beispielsweise der schraffierte Bereich in 20A) in der Karte durch die Betätigungseinheit 2 bezeichnet wird und die Höheninformationen der Gebäude, die in dem bezeichneten Bereich (oder außerhalb des Bereichs) vorhanden sind, geändert werden können. Mit diesem Verfahren werden die Gebäude wie in 20B dargestellt angezeigt, und es versteht sich offensichtlich von selbst, dass eine Situation auf einer Karte mit Straßen, Gebäuden usw. in einem Bereich, über den der Bediener etwas erfahren möchte, geklärt werden kann.
  • Durch Kombinieren der vorangehenden ersten und zweiten Ausführungsform kann offensichtlich eine geometrische Wirkung jedes der kombinierten Beispiele erzielt werden.
  • Beispielsweise werden durch Anwenden des Beispiels (19B), bei dem die Gebäude, die von jenen entlang der gesetzten Route verschieden sind, mit geringen Höhen angezeigt werden, und des Beispiels (14C und 16), bei dem die Gebäude, welche die Straße entsprechend 10D verdecken, die Gebäude, die von jenen entlang der gesetzten Route R in 10D verschieden sind, und ferner die Gebäude B1 und B2, welche die gesetzte Route verdecken, mit geringen Höhen angezeigt, so dass die Gebäude, welche die gesetzte Route R verdecken, nicht angezeigt werden, wie in 20C gezeigt ist, so dass die Landmarkenobjekte noch leichter erkannt werden können.
  • Obwohl die erste und die zweite Ausführungsform in Bezug auf Gebäude als Landmarkenobjekte beispielhaft beschrieben worden sind, ist die Erfindung nicht auf diese Beispiele beschränkt, sondern es kann offensichtlich auch eine ähnliche Wirkung erzielt werden, wenn die Erfindung auf Berge oder dergleichen angewendet wird.
  • Da die Erfindung wie oben erwähnt entwickelt worden ist, können bei der Navigationsvorrichtung gemäß dem ersten Aspekt der Erfindung die wichtigen Informationen auf der Karte, die durch Gebäude, Berge usw., die stereoskopisch angezeigt werden, verdeckt sind, bevorzugt erkannt werden, oder die gesetzte Route oder die momentane Position des Fahrzeugs können leicht erkannt werden.
  • Bei der Navigationsvorrichtung gemäß dem zweiten Aspekt der Erfindung können Straßeninformationen, die durch die Gebäude verdeckt sind, die stereoskopisch angezeigt werden, bevorzugt erkannt werden.
  • Bei der Navigationsvorrichtung gemäß dem dritten Aspekt der Erfindung kann selbst dann, wenn das Gebäude, das als ein Landmarkenobjekt an einer Position nahe der Kreuzung steht, durch ein anderes Gebäude, das stereoskopisch angezeigt wird, verdeckt wird, das Gebäude, das als Landmarkenobjekt dient, bevorzugt erkannt werden.
  • Bei der Navigationsvorrichtung gemäß dem vierten Aspekt der Erfindung kann die momentane Position des Fahrzeugs auf der Karte, auf der Gebäude, Berge usw. stereoskopisch angezeigt werden, leicht erkannt werden, und eine Situation auf der Karte mit Straßen, Gebäuden oder dergleichen an der Vorderseite (oder der Rückseite) kann geklärt werden.
  • Bei der Navigationsvorrichtung gemäß dem fünften Aspekt der Erfindung können die Informationen bezüglich der gesetzten Route auf der Karte, auf der Gebäude, Berge usw. stereoskopisch angezeigt werden, leicht erkannt werden.
  • Bei der Navigationsvorrichtung gemäß dem sechsten Aspekt der Erfindung kann eine Situation auf der Karte mit Straßen, Gebäuden usw. in einem gewünschten Bereich der Karte, in dem Gebäude, Berge usw. stereoskopisch angezeigt werden, geklärt werden.
  • Die vorliegende Erfindung ist oben mit Bezug auf die bevorzugten Ausführungsformen beschrieben worden. Es ist selbstverständlich, dass ein Durchschnittsfachmann auf dem Gebiet viele Variationen und Modifikationen im Rahmen der beigefügten Ansprüche mutmaßen kann.

Claims (6)

  1. Navigationsvorrichtung, die umfasst: ein Aufzeichnungsmedium (4), auf das wenigstens Kartendaten aufgezeichnet worden sind, die Straßen- und Formdaten umfassen, die in den Kartendaten enthalten sind und als Hauptlandmarkenobjekt dienen, um ein Merkmal einer Karte zu erkennen; eine Bildformungseinheit (3) zum Formen von Bildinformationen, die erhalten werden sollen, wenn eine Karte anhand der Kartendaten von einer gewünschten Betrachtungspunktposition aus betrachtet wird, auf der Grundlage der Kartendaten und der Formdaten; eine Anzeigeeinheit (5) zum Anzeigen eines Bildes auf der Grundlage der Bildinformationen, die durch die Bildformungseinheit geformt werden; und eine Steuereinheit (1) zum Steuern des Aufzeichnungsmediums, der Bildformungseinheit (3) und der Anzeigeeinheit (5), dadurch gekennzeichnet, dass die Navigationsvorrichtung eine Formdaten-Änderungseinheit (9) besitzt und die Steuereinheit die Formdaten-Änderungseinheit in der Weise steuert, dass sie wenigstens einen Teil der Formdaten auf der Grundlage wenigstens der Kartendaten ändert, und außerdem die Bildformungseinheit in der Weise steuert, dass sie die Bildinformationen auf der Grundlage der Kartendaten, der Formdaten und der durch die Formdaten-Änderungseinheit geänderten Formdaten formt.
  2. Vorrichtung nach Anspruch 1, bei der die Steuereinheit dann, wenn ein überlappender Abschnitt des Landmarkenobjekts und der Straße in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst wird, die Formdaten-Änderungseinheit in der Weise steuert, dass sie die Farmdaten des überlappenden Landmarkenobjekts ändert.
  3. Vorrichtung nach Anspruch 1, bei der die Steuereinheit dann, wenn überlappende Abschnitte mehrerer Landmarkenobjekte in den von der Anzeigeeinheit anzuzeigenden Bildinformationen erfasst werden, die Formdaten-Änderungseinheit in der Weise steuert, dass sie wenigstens eine der Formdateneinheiten der überlappenden Landmarkenobjekte, die sich näher bei der Betrachtungspunktposition befinden, ändert.
  4. Vorrichtung nach Anspruch 1, bei der die Steuereinheit die Formdaten-Änderungseinheit in der Weise steuert, dass sie die Formdaten von Landmarkenobjekten in einem Bereich ändert, der in Übereinstimmung mit der momentanen Position des Fahrzeugs gesetzt wird.
  5. Vorrichtung nach Anspruch 1, bei der die Steuereinheit die Formdaten-Änderungseinheit in der Weise steuert, dass sie die Formdaten innerhalb oder außerhalb eines vorgegebenen Bereichs für die gesetzte Route, die im Voraus durch Betätigungseinrichtungen gesetzt worden ist, ändert.
  6. Vorrichtung nach Anspruch 1, bei der die Steuereinheit die Formdaten-Änderungseinheit in der Weise steuert, dass sie die Formdaten von Landmarkenobjekten innerhalb oder außerhalb eines vorgegebenen Bereichs in den von der Anzeigeeinheit angezeigten Bildinformationen, die durch Betätigungseinrichtungen bezeichnet wurden, ändert.
DE69729684T 1996-04-26 1997-04-22 Navigationsvorrichtung mit Formveränderungsanzeigefunktion Expired - Lifetime DE69729684T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP13078996A JP3798469B2 (ja) 1996-04-26 1996-04-26 ナビゲーション装置
JP13078996 1996-04-26

Publications (2)

Publication Number Publication Date
DE69729684D1 DE69729684D1 (de) 2004-08-05
DE69729684T2 true DE69729684T2 (de) 2005-07-21

Family

ID=15042732

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69729684T Expired - Lifetime DE69729684T2 (de) 1996-04-26 1997-04-22 Navigationsvorrichtung mit Formveränderungsanzeigefunktion

Country Status (4)

Country Link
US (1) US5999879A (de)
EP (1) EP0803706B1 (de)
JP (1) JP3798469B2 (de)
DE (1) DE69729684T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013000879A1 (de) * 2013-01-10 2014-07-24 Volkswagen Aktiengesellschaft Navigationsvorrichtung für ein bewegliches Objekt und Verfahren zur Erzeugung eines Anzeigesignals für eine Navigationsvorrichtung für ein bewegliches Objekt

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148010A (ja) * 1998-11-06 2000-05-26 Matsushita Electric Ind Co Ltd 道路地図表示装置及び道路地図表示方法
JP4486175B2 (ja) * 1999-01-29 2010-06-23 株式会社日立製作所 立体地図表示装置および方法
US6710774B1 (en) 1999-05-12 2004-03-23 Denso Corporation Map display device
JP3908419B2 (ja) * 1999-09-14 2007-04-25 アルパイン株式会社 ナビゲーション装置
EP1126245B1 (de) * 2000-02-14 2006-05-10 Matsushita Electric Industrial Co., Ltd. Vorrichtung und Verfahren zum Ändern von Karteninformationen
JP3967866B2 (ja) 2000-04-28 2007-08-29 パイオニア株式会社 ナビゲーション装置及びナビゲーションプログラムがコンピュータで読取可能に記録された情報記録媒体
JP4587601B2 (ja) * 2000-05-30 2010-11-24 パナソニック株式会社 地図表示装置、地図表示方法、地図表示装置において用いられるコンピュータプログラム、及びプログラム記録媒体
JP4170090B2 (ja) * 2000-07-04 2008-10-22 三菱電機株式会社 ナビゲーション装置のランドマーク表示方法
WO2002016874A1 (de) * 2000-08-24 2002-02-28 Siemens Aktiengesellschaft Verfahren zum gewinnen einer kartendarstellung und navigationsgerät
CA2317336A1 (en) * 2000-09-06 2002-03-06 David Cowperthwaite Occlusion resolution operators for three-dimensional detail-in-context
JP2001174274A (ja) * 2000-10-13 2001-06-29 Fujitsu Ten Ltd 地図表示方法および装置
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
US6477460B2 (en) * 2001-02-27 2002-11-05 Metro One Telecommunications, Inc. Process and system for the annotation of machine-generated directions with easily recognized landmarks and other relevant information
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
WO2002101534A1 (en) 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
JP2003106862A (ja) * 2001-09-28 2003-04-09 Pioneer Electronic Corp 地図描画装置
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
JP3933929B2 (ja) * 2001-12-28 2007-06-20 アルパイン株式会社 ナビゲーション装置
US7251622B2 (en) * 2002-01-16 2007-07-31 Hong Fu Jin Precision Ind. (Shenzhen) Co., Ltd. System and method for searching for information on inventory with virtual warehouses
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
JP3949007B2 (ja) * 2002-05-30 2007-07-25 アルパイン株式会社 ナビゲーション装置
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406047A1 (en) 2002-09-30 2004-03-30 Ali Solehdin A graphical user interface for digital media and network portals using detail-in-context lenses
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
DE102005043160A1 (de) * 2005-09-12 2007-03-15 Robert Bosch Gmbh Verfahren zur dreidimensionalen Darstellung einer Vektorkarte eines Bildschirm-Navigationssystems
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US8566028B2 (en) * 2006-11-27 2013-10-22 International Business Machines Corporation Apparatus, system, and method for autonomously determining a set of destinations
US8253736B2 (en) * 2007-01-29 2012-08-28 Microsoft Corporation Reducing occlusions in oblique views
DE102007022512A1 (de) * 2007-05-14 2008-11-20 Continental Automotive Gmbh Verfahren und Vorrichtung zum Ermitteln dreidimensionaler Straßenkartendaten
JP5070421B2 (ja) * 2007-05-21 2012-11-14 株式会社ジオ技術研究所 地図表示装置
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
JP2009157053A (ja) * 2007-12-26 2009-07-16 Aisin Aw Co Ltd 立体地図表示ナビゲーション装置、立体地図表示システム及び立体地図表示プログラム
KR100889469B1 (ko) * 2008-04-23 2009-03-19 팅크웨어(주) 도로 정보에 기초하여 3차원 지도를 표시하는 시스템 및방법
CN102007377A (zh) * 2008-05-02 2011-04-06 通腾科技股份有限公司 用于强调地图路线的导航装置及方法
TW200946874A (en) * 2008-05-02 2009-11-16 Tomtom Int Bv Navigation device and method
JP2011524022A (ja) * 2008-05-29 2011-08-25 トムトム インターナショナル ベスローテン フエンノートシャップ デジタル地図画像上でのルート情報の表示
US8411092B2 (en) * 2010-06-14 2013-04-02 Nintendo Co., Ltd. 2D imposters for simplifying processing of plural animation objects in computer graphics generation
CN102538802B (zh) * 2010-12-30 2016-06-22 上海博泰悦臻电子设备制造有限公司 三维导航显示方法以及相关装置
JP5467177B2 (ja) * 2011-05-31 2014-04-09 楽天株式会社 情報提供装置、情報提供方法、情報提供処理プログラム、情報提供処理プログラムを記録した記録媒体、及び情報提供システム
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
US20140267282A1 (en) * 2013-03-14 2014-09-18 Robert Bosch Gmbh System And Method For Context Dependent Level Of Detail Adjustment For Navigation Maps And Systems
CN104075719A (zh) * 2013-03-26 2014-10-01 高德信息技术有限公司 一种三维导航方法和装置
JP6533075B2 (ja) * 2015-03-18 2019-06-19 アイシン・エィ・ダブリュ株式会社 地図画像表示装置、ナビゲーション装置、地図画像表示プログラム、及び地図画像表示方法
DE112016006449B4 (de) * 2016-03-24 2020-11-05 Mitsubishi Electric Corporation Unterstützungsbild-Anzeigevorrichtung, Unterstützungsbild-Anzeigeverfahren und Unterstützungsbild-Anzeigeprogramm
US11189089B2 (en) 2020-01-08 2021-11-30 Mapbox, Inc. Dynamic building extrusion in electronic maps

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57186111A (en) * 1981-05-13 1982-11-16 Nissan Motor Co Ltd Map display device for vehicle
JPH0690596B2 (ja) * 1985-04-30 1994-11-14 日本電装株式会社 電子地図表示装置
GB2176644A (en) * 1985-05-28 1986-12-31 John Russell Henderson Maps
US4890233A (en) * 1986-10-27 1989-12-26 Pioneer Electronic Corporation Vehicle bearing detection and data processing methods applicable to vehicle navigation system
JP3108122B2 (ja) * 1991-04-25 2000-11-13 パイオニア株式会社 車載ナビゲーション装置
EP0660290B1 (de) * 1993-12-27 2000-07-12 Nissan Motor Co., Ltd. Fahrzeugzielführungsvorrichtung und -verfahren unter Verwendung einer Anzeigeeinheit
DE69510493T2 (de) * 1994-04-15 1999-10-28 Nissan Motor Fahrzeug-Navigationssystem
JPH07306637A (ja) * 1994-05-12 1995-11-21 Sony Corp 複合電子装置
JP3371605B2 (ja) * 1995-04-19 2003-01-27 日産自動車株式会社 大気効果表示機能付き鳥瞰図表示ナビゲーションシステム
KR100235239B1 (ko) * 1995-09-29 1999-12-15 모리 하루오 가형정보의 출력장치, 가형정보의 출력방법, 지도표시장치, 지도표시방법, 네비게이션장치 및 네비게이션방법
KR100235240B1 (ko) * 1995-10-31 1999-12-15 모리 하루오 네비게이션(navigation) 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013000879A1 (de) * 2013-01-10 2014-07-24 Volkswagen Aktiengesellschaft Navigationsvorrichtung für ein bewegliches Objekt und Verfahren zur Erzeugung eines Anzeigesignals für eine Navigationsvorrichtung für ein bewegliches Objekt
US9964413B2 (en) 2013-01-10 2018-05-08 Volkswagen Ag Navigation device for a movable object and method for generating a display signal for a navigation device for a movable object

Also Published As

Publication number Publication date
DE69729684D1 (de) 2004-08-05
JP3798469B2 (ja) 2006-07-19
US5999879A (en) 1999-12-07
EP0803706A3 (de) 1998-12-23
EP0803706A2 (de) 1997-10-29
JPH09292833A (ja) 1997-11-11
EP0803706B1 (de) 2004-06-30

Similar Documents

Publication Publication Date Title
DE69729684T2 (de) Navigationsvorrichtung mit Formveränderungsanzeigefunktion
DE112008003424B4 (de) Navigationsgerät, das Videobilder einer Kamera verwendet
DE69633421T2 (de) Navigationsanzeige mit Vogelperspektive
DE112005001307B4 (de) Eingebaute Navigationsvorrichtung und Verfahren zur Korrektur der eigenen Fahrzeugposition
DE69535200T2 (de) Vorrichtung zur Strassenkartenanzeige für Fahrzeug
DE69532977T2 (de) Kartenanzeigegerät für Fahrzeug
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102012205316B4 (de) Navigationssystem und Anzeigeverfahren hiervon
DE102018102614A1 (de) Verfahren und Systeme für die Übermittlung autonomer/halbautonomer Fahrwege
DE69931539T2 (de) Karteninformation-anzeige-vorrichtung für ein navigationsgerät
DE102008019630B4 (de) Fahrzeuginterne Kartenanzeigevorrichtung, Kartenanzeigeverfahren
DE112008003341T5 (de) Navigationsvorrichtung
EP2769373A1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE102010042063A1 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE10023160A1 (de) Kartenanzeigevorrichtung
DE102011100628B4 (de) Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters
DE69815940T2 (de) Verfahren und Anordnung zur Informationsdarstellung in Form einer Landkarte für Fahrzeugsnavigationsgeräte
DE112004001405T5 (de) Kartenanzeigeverfahren
DE60132946T2 (de) Navigationssystem
DE10138719A1 (de) Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
DE102004005750A1 (de) Routensuchverfahren und Verkehrsinformationen-Anzeige-Verfahren für eine Navigationsvorrichtung
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
WO2005038395A1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
DE102018108538A1 (de) Verfahren zur Ermittlung von Verkehrsinformationen

Legal Events

Date Code Title Description
8320 Willingness to grant licences declared (paragraph 23)
8364 No opposition during term of opposition