DE4446452A1 - Fahrleitvorrichtung und Fahrleitverfahren für ein Fahrzeug - Google Patents
Fahrleitvorrichtung und Fahrleitverfahren für ein FahrzeugInfo
- Publication number
- DE4446452A1 DE4446452A1 DE4446452A DE4446452A DE4446452A1 DE 4446452 A1 DE4446452 A1 DE 4446452A1 DE 4446452 A DE4446452 A DE 4446452A DE 4446452 A DE4446452 A DE 4446452A DE 4446452 A1 DE4446452 A1 DE 4446452A1
- Authority
- DE
- Germany
- Prior art keywords
- distance
- data
- image
- vehicle
- sidewall
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 39
- 238000004364 calculation method Methods 0.000 claims description 78
- 230000015654 memory Effects 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 62
- 238000001514 detection method Methods 0.000 claims description 47
- 238000010276 construction Methods 0.000 claims description 39
- 238000009826 distribution Methods 0.000 claims description 31
- 238000013461 design Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000013075 data extraction Methods 0.000 claims description 2
- 239000007787 solid Substances 0.000 claims 2
- 230000007613 environmental effect Effects 0.000 claims 1
- 239000000872 buffer Substances 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 11
- 238000003860 storage Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000013215 result calculation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Description
Die vorliegende Erfindung betrifft eine Fahrleitvorrichtung
sowie ein Fahrleitverfahren für ein Fahrzeug, die
ermöglichen, daß dieses Fahrzeug durch einen engen Weg
sicher hindurchfahren kann, und damit die dem Fahrer in
einem solchen Zustand auferlegte Last herabsetzbar ist.
Ein Fahrzeug wie ein Auto umfaßt gewöhnlich einen
Sensor, in dem ein Tastschalter oder Berührungsschalter
eingeschaltet wird, wenn ein Eckpfeiler oder ein stangenförmiges
Teil ein Hindernis berührt, das z. B. aus einer
Wand, Leitplanke, einem Pfahl oder einem parkenden Fahrzeug
besteht, wie dies in dem offengelegten japanischen
Gebrauchsmuster Nr. 5-68 742 (1993) beschrieben ist, um für
eine Kompensation der beschränkten Sinneswahrnehmung eines
Fahrers zu sorgen, indem ein Zwischenraum zwischen dem
Fahrzeug und Hindernissen erkannt wird, die auf der linken
und rechten Seite des Fahrzeugs vorhanden sind.
In letzter Zeit ist eine Technologie entwickelt worden,
um die dem Fahrer auferlegte Last zu mindern, die besteht,
wenn das Fahrzeug durch einen schmalen Weg fährt, und
zwar in der Weise, daß Ultraschallsensoren, die auf der
Seitenfläche von vier Ecken des Fahrzeugs angeordnet sind,
Ultraschallwellen aussenden, eine am Hindernis reflektierte
Schallwelle erfaßt wird und die Distanz des Spaltes gemessen
wird, um dann den Fahrer hierdurch über die gemessene Distanz
zu informieren.
Da jedoch der Fahrer eine große Erfahrung benötigt,
um das Fahrzeug mit der oben erwähnten Eckstange zu betreiben,
die an der Außenseite der Fahrzeugkarosserie als
Zeichen befestigt ist, ist es nicht möglich, tatsächlich die
Wirkung der Herabsetzung der auf dem Fahrer lastenden Bürde
zu erzielen. Bei Kontaktsensoren, wie Abfühlsensoren, kann
der Fahrer ein Lenkrad nicht ausreichend schnell betätigen,
nachdem das Hindernis schon berührt worden ist, da er die
Position nicht vor dem Berühren des Gegenstandes erkennen
kann.
Ferner kann auch die Ultraschalltechnologie dem Fahrer
die positionelle Beziehung des Hindernisses infolge einer
Verschlechterung einer räumlichen Auflösungsleistung nicht
vermitteln, wobei dieses Verfahren eine Gegenstandabhängigkeit
zeigt, wobei die abgestrahlte Ultraschallwelle von
Kleidern von Fußgängern und Schleuderwänden und anderen
Teilen nicht zurückgestrahlt wird. Dementsprechend ist es
recht schwierig, vielfältige auf der Straße vorhandene
Strukturen mit dieser Technologie differenzierend zu
erfassen.
Hinsichtlich der oben dargelegten Situation liegt der
Erfindung die Aufgabe zugrunde, eine Fahrleitvorrichtung
sowie ein Fahrleitverfahren für ein Fahrzeug anzugeben, die
imstande sind, eine ausreichende Sicherheit beim Hindurchfahren
durch einen engen Weg zu bieten und die auf dem Fahrer
lastende Bürde herabzusetzen.
Diese Aufgabe wird durch den Gegenstand des Patentanspruchs
1 bzw. des Patentanspruchs 6 gelöst.
Vorteilhafte Weiterbildungen der Erfindung sind in den
Unteransprüchen gekennzeichnet.
Erfindungsgemäß wird der Fahrer über den jeweiligen
Zwischenraum informiert, der zwischen einer detektierten
Struktur und der eigenen Fahrzeugkarosserie vorliegt, und
zwar in Abhängigkeit von einer korrekten Detektion verschiedener
Konstruktionen und Aufbauten, die in der Vorausrichtung
des Fahrzeugs vor dem Fahrzeug liegen, und zwar bevor das
Fahrzeug durch den engen Weg fährt.
Die erfindungsgemäße Fahrleitvorrichtung umfaßt eine
stereoskopische Bildverarbeitungseinrichtung zum Verarbeiten
eines Paares stereoskopischer Bilder eines sich außerhalb
des Fahrzeugs befindenden Gegenstandes, der durch ein Abbildungssystem
abgebildet wird, das auf dem Fahrzeug so
angebracht ist, daß eine Distanzverteilung eines Gesamtbildes
in Abhängigkeit von durch Abweichungsbeträge gekennzeichneten
Positionen entsprechend dem Paar der stereoskopischen
Bilder gemäß dem Triangolationsprinzip gewonnen wird.
Eine Konstruktionsdetektoreinrichtung detektiert die vorhandenen
vielfältigen unterschiedlichen Konstruktionen und
Gegenstände durch Verwenden dreidimensionaler Positionsdaten,
die für einen jeden Teil oder Abschnitt eines Gegenstandes
entsprechend der Distanzverteilungsdaten von der
stereoskopischen Bildverarbeitungseinrichtung berechnet
werden. Eine Zwischenraumdistanzberechnungseinrichtung berechnet
jeweils die nächste Distanz als rechte und linke
Zwischenraumdistanzen, die jeweils zwischen einer verlängerten
Linie der linken und rechten Seite des Fahrzeugs
und jedes der Enden auf der Fahrzeugseite zu mehreren verschiedenen
Konstruktionen ermittelt werden, die durch die
Konstruktionsdetektoreinrichtung detektiert worden sind.
Eine Informationseinrichtung informiert den Fahrer über die
Daten, die sich auf die linken und rechten Zwischenraumdaten
beziehen, welche von der Zwischenraumdistanzberechnungseinrichtung
berechnet worden sind.
Nachdem in der vorliegenden Erfindung die Distanzverteilungsdaten
über das gesamte Bild hinweg durch das Prinzip
der Triangulation in Abhängigkeit vom Abweichungsbetrag der
Positionen, die einander in dem Paar stereoskopischer Bilder
entsprechen, die stereoskopisch von Gegenständen um das
Fahrzeug herum abgebildet werden, gewonnen wurden, werden
die dreidimensionalen Positionen der jeweiligen Abschnitte
entsprechend den Distanzverteilungsdaten gewonnen und hierdurch
die Konstruktion, die gegebenenfalls ein Hindernis
darstellt, unter Verwendung der dreidimensionalen Positionsdaten
detektiert. Die Berechnungseinrichtung berechnet dabei
jeweils die nächste Distanz als rechte und linke Zwischenraumdistanzen
zwischen einer verlängerten Linie der
linken oder rechten Seite des Fahrzeugs und jeder der Enden
auf der Fahrzeugseite der mehreren verschiedenen Konstruktionen,
die vorab detektiert worden sind, um den Fahrer
über die rechten und linken Zwischenraumdistanzdaten zu
informieren.
Wie erläutert, gewinnt die vorliegende Erfindung die
Distanzverteilung über die Gesamtbilder in Abhängigkeit von
den Abweichungsbeträgen zwischen den Positionen, die einander
in dem Paar der stereoskopischen Bilder entsprechen,
die die Objekte um das Fahrzeug herum abbilden, ferner
wird erfindungsgemäß die dreidimensionale Position jedes
Teils des Objekts entsprechend der Distanzverteilungsdaten
berechnet, und es wird eine Mehrzahl von Konstruktionen
detektiert, indem dreidimensionale Positionsdaten berechnet
werden. Die Vorrichtung der vorliegenden Erfindung berechnet
ferner als die linken und rechten Zwischenraumdistanzen
die nächste Distanz zwischen den Enden oder Endbereichen
auf der Fahrzeugseite von der detektierten Mehrzahl der
Gegenstände und der verlängerten Linien der Fahrzeugseiten
und informiert den Fahrer über die entsprechend ermittelten
Zwischenraumdaten. Dementsprechend ist es möglich, den
Fahrer in geeigneter Weise über die Zwischenraumdistanz
zwischen der Karosserie seines Fahrzeugs und den verschiedenen
Konstruktionen zu informieren, die in der Vorausrichtung
vor dem Fahrzeug vorhanden sind, bevor das Fahrzeug
durch den schmalen Weg zu fahren hat, nachdem vorab präzise
detektiert worden ist, wodurch äußerst vorteilhafte
Effekte erzielbar sind wie die Herabsetzung der dem Fahrer
auferlegten Last und die Absicherung gegen Risikosituationen
und Unfälle.
Im folgenden wird die Erfindung an Hand der Zeichnungen
näher erläutert. Es zeigen:
Fig. 1 eine Ansicht eines Fahrzeugs mit einer darin
installierten Fahrleitvorrichtung gemäß einem Ausführungsbeispiel
der Erfindung;
Fig. 2 ein Blockschaltbild der Fahrleitvorrichtung;
Fig. 3 eine beispielhafte Ansicht für den Bildschirm
einer Displayeinrichtung;
Fig. 4 eine Vorderansicht auf das Fahrzeug;
Fig. 5 eine beispielhafte Darstellung, die die
Beziehung zwischen einer Kamera und einem Objekt zeigt;
Fig. 6 eine detaillierte Schaltung eines Bildprozessors;
Fig. 7 eine Ansicht, die den Aufbau einer verwendeten
City-Block-Distanzberechnungsschaltung zeigt;
Fig. 8 ein Blockschaltbild, das eine Minimumwertdetektorschaltung
zeigt;
Fig. 9 eine beispielhafte Ansicht, die eine Abbildung
der CCD-Kameras, die am Fahrzeug angebracht sind,
vermittelt;
Fig. 10 eine beispielhafte Ansicht, die ein Distanzbild
darstellt;
Fig. 11 eine Ansicht von oben auf das Fahrzeug;
Fig. 12 eine seitliche Ansicht des Fahrzeugs;
Fig. 13 ein Blockschaltbild eines Distanzbildverarbeitungscomputers;
Fig. 14 eine beispielhafte Ansicht, die ein Klassifizierungsverfahren für ein Bild zeigt;
Fig. 15 eine beispielhafte Ansicht, die die Beziehung
zwischen einem detektierten Gegenstand und einem
Histogramm verdeutlicht;
Fig. 16 eine beispielhafte Ansicht, die eine detektierte
Distanz und ein detektiertes Ergebnis einer Region
zeigt, in der ein Gegenstand existiert;
Fig. 17 eine beispielhafte Ansicht, die die Form
eines möglichen dreidimensionalen Fensters zur Detektion
des Gegenstandes zeigt;
Fig. 18 eine beispielhafte Ansicht, die die Form
eines zweidimensionalen Fensters zur Detektion des Gegenstands
zeigt;
Fig. 19 eine beispielhafte Ansicht, die die Daten
zeigt, die die Kontur des Gegenstandes darstellen;
Fig. 20 eine beispielhafte Ansicht, die die Größenabmessung
der externen durch das Konturbild detektierten
Form zeigt;
Fig. 21 eine beispielhafte Darstellung, die die
Form einer Suchregion für die Detektion einer Seitenwand
zeigt;
Fig. 22 eine beispielhafte Ansicht, die eine Seitenwandsuchregion
auf einem Bild zeigt;
Fig. 23 eine beispielhafte Ansicht, die eine Verteilungssituation
von Konstruktionsdaten zeigt;
Fig. 24 eine beispielhafte Ansicht, die eine Idee
von einer geraden Linie bei der Hough-Transformation vermittelt;
Fig. 25 eine beispielhafte Ansicht, die eine Auswahl-
oder Votierungsregion eines Parameterraums zeigt;
Fig. 26 eine beispielhafte Ansicht, die eine Seitenwandkandidatenregion
zeigt;
Fig. 27 eine beispielhafte Ansicht, die die Beziehung
zwischen einem Histogramm und einer Region zeigt, in
der eine Seitenwand vorliegt;
Fig. 28 eine beispielhafte Ansicht, die ein detektiertes
Ergebnis der Seitenwand zeigt;
Fig. 29 eine beispielhafte Ansicht zur Verdeutlichung
der Berechnung einer Zwischenraumdistanz;
Fig. 30 ein Flußdiagramm, das die Funktion eines
Bildprozessors verdeutlicht;
Fig. 31 eine beispielhafte Darstellung zur Aufzeigung
einer Speicherungsfolge in einem Schieberegister;
Fig. 32 eine Zeittafel, die die Funktion einer
City-Block-Distanzberechnungsschaltung zeigt;
Fig. 33 eine Zeittabelle, die die Funktion einer
Fehlbetrags-Bestimmungseinrichtung zeigt;
Fig. 34 eine Zeittafel, die den Gesamtfunktionsablauf
des Bildprozessors verdeutlicht;
Fig. 35 und 36 Flußdiagramme einer Gegenstandsdetektionsverarbeitung;
Fig. 37 und 38 Flußdiagramme der Arbeitsprozesse
für eine Seitenwanddetektion; und
Fig. 39 ein Flußdiagramm für die Verarbeitung der
Zwischenraumdistanzberechnung.
Im folgenden wird detailliert eine Fahrleitvorrichtung
für ein Fahrzeug gemäß bevorzugten Ausführungsbeispielen der
vorliegenden Erfindung unter Bezugnahme auf die beiliegenden
Zeichnungen erläutert.
In Fig. 1 bezeichnet die Bezugszahl 1 ein Fahrzeug
wie ein Auto, und das Fahrzeug 1 umfaßt eine Fahrleitvorrichtung,
die die Funktion eines aktiven Steuerhilfssystems
(ADA-Systems von active drive assist) aufweist, um dem
Fahrer eine hochgradige Steuerhilfe zu bieten und hierdurch
mögliche Risiken sichergestellt zu vermindern, indem der
Fahrer entlastet wird, wenn das Fahrzeug durch einen schmalen
Weg fährt, in dem Wände, Geländer, Brüstungen und dergleichen,
sowie Masten elektrischer Einrichtungen (wie
Telefonmasten) und weitere parkende Fahrzeuge vorliegen.
Die Fahrleitvorrichtung 2 umfaßt ein stereoskopisches
optisches System 10 mit einem Paar Kameras auf der linken
und rechten Seite als Abbildungssystem zum Abbilden von
Gegenständen im Bereich um das Fahrzeug herum. Ferner ist
eine stereoskopische Bildverarbeitungseinrichtung 15 zum
Berechnen einer dreidimensionalen Distanzverteilung im
gesamten Bild vorgesehen, indem hierzu ein Paar Bilder,
die durch die linken und rechten Kameras des stereoskopischen
optischen Systems 10 aufgenommen wurden, verarbeitet
werden. Eine vorgesehene Konstruktionsdetektionseinrichtung
100 detektiert mit hoher Geschwindigkeit eine dreidimensionale
Position des kontinuierlichen Aufbaus bzw. der
fortgesetzten Konstruktion einer Grenze der Straße wie
einer Wandung, Brüstung eines Geländers sowie Gegenständen
auf der Straße wie weiteren Fahrzeugen, Fußgängern und
Gebäuden, jeweils in Abhängigkeit von den Distanzverteilungsdaten,
die von der stereoskopischen Bildverarbeitungseinrichtung
15 zugeführt werden. Eine Zwischenraum-Distanzberechnungseinrichtung
110 berechnet als eine Zwischenraum-
Distanz eine nächste Distanz links und rechts des Fahrzeugs
zwischen einer verlängerten Linie der Seiten der Fahrzeugkarosserie
und den Enden der Wand oder Konstruktion, die
durch die Konstruktionsdetektoreinrichtung detektiert worden
ist. Eine Informationseinrichtung 115 dient zum Informieren
des Fahrers über die Zwischenraum-Distanzdaten, die durch
die Berechnungseinrichtung 110 bezüglich der linken und
rechten Seite des Fahrzeugs berechnet worden sind.
Fig. 2 ist ein Blockschaltbild, das den Hardware-Aufbau
der Fahrleitvorrichtung 2 zeigt. Das stereoskopische optische
System 10 verwendet CCD-Kameras, die ladungsgekoppelte
Bauelemente (CCD's) oder dergleichen umfassen, und weist
ein Paar CCD-Kameras 11a und 11b auf der linken bzw. rechten
Seite für eine kurze Distanz und ein Paar CCD-Kameras
12a und 12b auf der rechten und linken Seite für große
Distanz auf. Das stereoskopische optische System 10 ist mit
dem Bildprozessor 20 verbunden, um die Funktion als stereoskopische
Bildverarbeitungseinrichtung 15 vorzusehen.
Darüber hinaus ist der Bildprozessor 20 mit einem
Distanzbild-Verarbeitungscomputer 120 verbunden, um die Funktion
als Konstruktionsdetektoreinrichtung 100 und Zwischenraumdistanzberechnungseinrichtung
110 vorzusehen. Der
Distanzbild-Verarbeitungscomputer 120 ist auch mit einem
Display 3 als Informationseinrichtung 115 verbunden.
Der Bildprozessor 20 umfaßt eine Distanzdetektorschaltung
20a und einen Distanzbildspeicher 20b. Die Distanzdetektorschaltung
20a sucht Abschnitte, die dasselbe Objekt in
jeder von feinen Regionen abbilden, gegenüber dem Paar aus
zwei stereoskopischen Bildern, die von dem stereoskopischen
optischen System 10 aufgenommen werden (bestimmt mit anderen
Worten für sämtliche feinen Regionen in beiden Bildern den
gleichen Gegenstand) und berechnet eine Distanz zu diesem
Gegenstand in Abhängigkeit von einem Abweichungsbetrag der
Positionen entsprechend den aufgefundenen Abschnitten. Der
Distanzbildspeicher 20b speichert Distanzdaten, die ein Ausgangssignal
der Distanzdetektorschaltung 20a darstellen.
Der Distanzbild-Verarbeitungscomputer 120 umfaßt eine
Auslegung als Multimikroprozessorsystem, in der ein Mikroprozessor
120a, ein Mikroprozessor 120b und ein Mikroprozessor
120c über einen Systembus 121 verschaltet sind. Der
Mikroprozessor 120a führt hauptsächlich eine Verarbeitung
der Detektion jeweiliger Gegenstände aus, der Mikroprozessor
120b führt hauptsächlich eine Verarbeitung der Detektion
einer Seitenwand aus und der Mikroprozessor 120c führt hauptsächlich
eine Verarbeitung hinsichtlich der Berechnung einer
Zwischenraumdistanz aus.
Der Systembus 121 ist mit einer Interfaceschaltung 122
verbunden, die mit dem Distanzbildspeicher 20b verbunden
ist, ferner einem Nur-Lesespeicher (ROM) 123, der ein Steuerprogramm
speichert, einem Speicher mit wahlfreiem Zugriff
(RAM) 124, der verschiedene Parameter während der berechnenden
Verarbeitung speichert, und einem Ausgangsspeicher 125
zum Speichern von Parametern wie Verarbeitungsergebnissen,
ferner mit einer Displaysteuereinheit 126 zum Steuern des
Displays oder der Anzeige 3 und einer Interfaceschaltung 127
zum Eingeben von Signalen von Sensoren und Schalteinrichtungen
wie einem Fahrzeuggeschwindigkeitssensor 4, einem
Lenkwinkelsensor 5 zur Detektion eines Lenkwinkels und eines
Modussetzschalters 6 zur Selektion eines Unterstützungsmodus
des ADA für den Fahrer, wobei diese Einheiten am Fahrzeug
angebracht sind.
Der Distanzbild-Verarbeitungscomputer 120 umfaßt unterteilte
Speicherregionen, die jeweils von den Mikroprozessoren
120a, 120b und 120c verwendet werden, und führt
parallel eine Objektdetektionsverarbeitung und eine Seitenwanddetektionsverarbeitung
in Abhängigkeit von den Distanzdaten
vom Bildprozessor 20 durch. Der Computer 120 zeigt
ein Bild auf dem Display 3 nach einer Zwischenraumdistanzberechnungsverarbeitung
in Abhängigkeit von den detektierten
Objektdaten durch, wenn ein Standardsignal durch Manipulation
des Modussetzschalters 6 durch den Fahrer eingegeben
wird.
Wie in Fig. 3 gezeigt, ist ein Monitorabschnitt 3a
im zentralen Abschnitt auf einem Bildschirm des Displays 3
vorgesehen, um eine Ansicht (Szenerie) vor dem Fahrzeug
durch den jeweiligen Zustand des weiter unten erwähnten
Distanzbildes vorzusehen. Ein Modusdisplayabschnitt 3b ist
auf der Seite des Monitorabschnitts 3a vorgesehen und dient
zur Darstellung jedes Modus (Fahrgeschwindigkeit, Leitsteuerung,
Unterstützung und Prüfung) des ADA, wobei eine
relevante Anzeige des Monitorabschnitts 3a entsprechend
einer Betriebseingabe des Modussetzschalters 6 erleuchtet
wird.
Ferner sind ein Datendisplayabschnitt 3c und ein
Positionsdisplayabschnitt 3d vorgesehen, wobei letzterer
durch seine in vier Abschnitte oder Sektoren aufgeteilte
ovale Form vorn, rechts, hinten und links vom Fahrzeug anzeigt
bzw. darstellt. Die beiden Abschnitte 3c und 3d sind oberhalb
des Monitorabschnitts 3a vorgesehen. Ein Modusdatendisplayabschnitt
3e ist unterhalb des Monitorabschnitts 3a
vorgesehen und dient zur Anzeige von Angaben über die Distanz
zwischen Fahrzeugen, sowie Geschwindigkeit, linksseitiger
Zwischenraumabstand und rechtsseitiger Zwischenraumabstand
jeweils versehen mit den numerischen Werten
aus der Berechnung.
In der Erfindung selektiert der Fahrer den Leitmodus
durch Betätigen des Modussetzschalters 6, wenn das Fahrzeug
durch einen schmalen Fahrweg fahren soll, bei dem mehrere
verschiedene Hindernisse vorliegen. Infolgedessen wird der
Displayabschnitt "Leiten" im Modusdisplayabschnitt 3b eingeschaltet,
und gleichzeitig berechnet der Computer 120
jeweils die Distanz auf der rechten und linken Seite zwischen
den verlängerten Linien der rechten und linken Seite
der Karosserie des Fahrzeugs und den Enden der Hindernisse
um das Fahrzeug auf der Straße in Abhängigkeit vom Distanzbild
nach Verarbeitung eines Paares der stereoskopischen
Bilder, die vom stereoskopischen optischen System 10 aufgenommen
wurden, für jeden möglichen Distanzwert.
Wie in Fig. 3 gezeigt, wird der numerische Wert der
Zwischenraumdistanz unter der Anzeige dieser Größe als Wort
(d. h. rechte und linke Zwischenraumdistanz) im Modusdatendisplayabschnitt
3e angezeigt, und es werden der rechte und
linke Abschnitt des Positionsdisplayabschnitts 3d eingeschaltet.
Der Positionsdisplayabschnitt 3d wird ausgeschaltet
und auf der entsprechenden Seite mit Rot dargestellt,
um den Kontakt mit einem Hindernis als Alarm anzuzeigen,
falls bei der Geradeausfahrt bzw. geradeaus die berechnete
Zwischenraumdistanz weniger als 0 (Null) beträgt oder 0.
Der Positionsdisplayabschnitt 3d wird eingeschaltet und
durch Gelb dargestellt, wenn die Kontaktgefahr beim sorgfältigen
Betätigen des Lenkrades durch den Fahrer besteht,
wenn die Zwischenraumdistanz mehr als 0 (Null) beträgt
oder 20 cm oder weniger beträgt. Der Positionsdisplayabschnitt
3d wird eingeschaltet und durch Grün angezeigt,
wenn angezeigt werden soll, daß die Gefahr ausreichend
gering ist, falls geradeausgefahren wird, wobei hier die
Bedingung ist, daß die Zwischenraumdistanz mehr als 20 cm
beträgt. Bei Gelb hingegen wird vorsichtig gefahren.
Entsprechend kann der Fahrer auf dem Bildschirm des
Displays sicherstellen, daß das Fahrzeug sicher den schmalen
Fahrweg passiert, indem der Modussetzschalter 6 betätigt
wird, bevor durch diesen Fahrweg hindurchgefahren wird, bei
dem eine Seitenwand, elektrische Einrichtungen wie Telefonmasten
und parkende Autos vorliegen, wodurch vorab ein
Kontakt oder Aufprall vermieden wird, indem die dem Fahrer
sonst auferlegte Last herabgesetzt wird. Da ferner der Fahrer
die Zwischenraumdistanz quantitativ erfassen kann, ist
es möglich, daß der Fahrer auf leichte Weise die Fahrzeugposition
feststellen kann und den weiteren Vorgang für
eine sichere Fahrt vorausplanen kann.
Als vereinfachte Lösung kann eine Anzeige z. B. in Form
eines graphischen Balkens anstelle der Anzeige 3 vorgesehen
werden, um einen Lichtabschnitt jeweils entsprechend der
Zwischenraumdistanz zu ändern. Ferner können auch ein Ton
oder eine Stimme als Ansage für die Informationseinrichtung
115 eingesetzt werden, um dem Fahrer die jeweilige Zwischenraumdistanz
zu vermitteln, und anstelle der visuellen Anzeige
eingesetzt werden.
Im folgenden wird die Abbildungsverarbeitungsfunktion
durch den Bildprozessor 20 erläutert. Ferner werden erläutert
die Konstruktionsdetektionsfunktion durch den Distanzbild-
Verarbeitungscomputer 120 und eine Zwischenraumdistanz-
Berechnungsfunktion, wenn der Leitmodus durch den Modussetzschalter
6 ausgewählt ist. Die Distanzberechnung durch den
Bildverarbeitungscomputer 120 wird nur ausgeführt, wenn die
detektierten Konstruktionen den Weg in die Vorausrichtung
nicht wie ein Hindernis blockieren.
Ein Paar Kameras auf der linken und rechten Seite,
die das stereoskopische optische System 10 gemäß Darstellung
in Fig. 4 bilden, umfassen die beiden CCD-Kameras 11a und
11b (die für die weitere Darstellung als CCD-Kamera 11 angezeigt
sind) und zwei CCD-Kameras 12a und 12b (die ebenfalls
durch CCD-Kameras 12 angezeigt sind). Die CCD-Kameras 11a
und 11b sind im vorderen Bereich an der Decke des Fahrzeuginnenraumes
unter vorbestimmter Distanz vorgesehen, um
Gegenstände in relativ kurzem Abstand abzubilden. Die CCD-
Kameras 12a und 12b sind ebenfalls dort angebracht, wobei
sie jeweils unter Abstand von den CCD-Kameras 11a und 11b
jeweils links bzw. rechts außen von diesen Kameras 11 angebracht
sind, um einen Gegenstand unter einer großen Distanz
zu erfassen.
Um eine Distanz von der nächstmöglichen Position bis
zu einer Position innerhalb von 100 m mittels des optischen
Systems 10 zu messen, reicht es aus, Positionen von 2 bis
100 m in Vorwärtsrichtung zu messen, wenn sich die CCD-Kameras
11 und 12 im Innenraum 2 m von einem vorderen Ende
der Fahrzeug-Motorhaube entfernt befinden.
Wenn demgemäß die Kurz-Distanz-CCD-Kameras 11a und
11b die Positionen innerhalb von 2 bis 20 m und die Lang-
Distanz-Kameras 12a und 12b die Positionen innerhalb einer
Distanz von 10 bis 100 m abdecken, können die Kameras 11
und 12 den gesamten Bereich mit einer Zuverlässigkeitssicherheit
abdecken, indem ein Überlappungsbereich von
10 bis 20 m voraus sichergestellt wird.
Das Distanzberechnungsverfahren durch den Bildprozessor
20 wird nun unter Bezugnahme auf die Kurzdistanz-
CCD-Kamera 11 als Beispiel erläutert. Die Distanzberechnung
mit der Langdistanz-CCD-Kamera 12 entspricht der Verarbeitung
für die Kamera 11. In der Fahrleitvorrichtung 2 gemäß
der vorliegenden Erfindung wird die Kurz-Distanz-Kamera 11
zur Detektion von Konstruktionen benutzt, die sich gerade
vor dem Fahrzeug befinden.
Eine Abbildung eines Punktes P wird auf einer Projektionsebene
unter einem Abstand von f von den Brennpunkten
der jeweiligen Kameras aufgenommen, wobei der Punkt P sich
von den Oberflächen der beiden Kameras 11a und 11b unter
einem Abstand D befindet. Der Anbringungsabstand zwischen
den beiden Kurz-Distanz-Kameras 11a und 11b entspricht gemäß
Darstellung in Fig. 5 r, und die jeweiligen Brennweiten
der Kameras 11a und 11b betragen f.
Beträgt zu diesem Zeitpunkt ein Abweichungsbetrag gemäß
Darstellung in der Zeichnung x, so wird "r+x" als die Distanz
zwischen der Position des Bildes auf der rechten CCD-Kamera 11b
und der Position des Bildes auf der linken CCD-Kamera 11a
gewonnen. Die Distanz D zum Punkt P kann dann durch die folgende
Gleichung (1) aus dem Abweichungsbetrag x gewonnen
werden:
D = r · f/x (1).
Der Abweichungsbetrag x zwischen dem rechten und
linken Bild kann auch nach der Ermittlung eines Koinzidenzabschnitts
von Merkmalen wie Kanten, Linien und speziellen
Formen detektiert werden. Um jedoch eine Verschlechterung der
Datenmenge zu vermeiden, wird die jeweilige Distanzverteilung
in jeder kleinen Region für den gesamten Bildschirm
durch den Bildprozessor 20 ermittelt, wobei das Bild in eine
Vielzahl kleiner Regionen aufgeteilt wird, um denselben
Gegenstand auf dem linken und rechten Bild aufzusuchen, und
entsprechende kleine Regionen auf den linken und rechten
Bildern herausgefunden werden, indem ein Leuchtdichtemuster
und Farbmuster innerhalb der kleinen Regionen verglichen
werden, um Koinzidenzen festzustellen.
Eine Abschätzung einer Übereinstimmung bzw. eines Zusammenfallens
von rechten und linken Bildern, d. h. eine
stereoskopische Abstimmung, kann durch eine City-Block-Distanz
H erfolgen, die beispielsweise durch die folgende
Gleichung (2) repräsentiert wird, wenn die Leuchtdichte oder
Helligkeit (es kann auch die Farbe herangezogen werden) im
i-ten Pixel im rechten und linken Bild jeweils Ai und Bi
betragen:
H = Σ|Ai - Bi| (2).
Die stereoskopische Anpassung durch die City-Block-
Distanz H führt keine Verschlechterung der Datenmenge ein,
hervorgerufen durch die Subtraktion eines Mittelwerts, und
kann die Berechnungsgeschwindigkeit verbessern, da keine
Multiplikation erfolgen muß. Jedoch beinhaltet das Anpassungsverfahren
das Problem, daß die detektierte Distanz
unsicher ist, weil es möglich ist, in derselben Region
Gegenstände unter kurzer Distanz und großer Distanz zu
erfassen, wenn die Größe der aufzuteilenden kleinen Region
zu groß gemacht ist. Andererseits ist zu beachten, daß bei
Anstrebung von möglichst kleinen Regionen zur Gewinnung der
Distanzverteilung des Bildes die Datenmenge zu klein sein
kann, um die Koinzidenz bei einer zu kleinen Region noch
feststellen zu können. Nimmt daher die Vorrichtung der vorliegenden
Erfindung ein Bild bezüglich des Fahrzeugs auf,
das 100 m vom Fahrzeug entfernt ist, wobei in derselben
Region ein Fahrzeug, das auf einer angrenzenden Fahrspur
fährt, nicht eingeschlossen ist, so beinhalten die gewonnenen
kleinen Regionen vier Pixel gegenüber dem stereoskopischen
optischen System 10, falls diese den Maximalwert in
Richtung der Breite darstellen. Als Ergebnis davon, daß die
optimale Pixelanzahl im gegenwärtigen Bild in Abhängigkeit
vom Maximalwert gewonnen wird, können jeweils vier Pixel
für jede Dimension als praktikabel angenommen werden.
In der folgenden Beschreibung wird das Bild in
kleine Regionen von 4×4 aufgeteilt, um eine Koinzidenz von
linkem und rechtem Bild festzustellen, und das stereoskopische
optische System 10 ist durch die CCD-Kameras 11a und
11b repräsentiert.
Ein detailliertes Schaltungsdiagramm des Bildprozessors
20 ist in Fig. 6 gezeigt. Die Distanzdetektorschaltung
20a und der Distanzbildspeicher 20b sind Bestandteil
der Schaltung des Bildprozessors 10. Die Distanzdetektorschaltung
20a umfaßt einen Bildumsetzer 30 zum Umsetzen
eines analogen Bilds, das vom optischen stereoskopischen
System 10 aufgenommen wird, in ein digitales Bild, eine
City-Block-Distanzberechnungseinrichtung 40 zur kontinuierlichen
Berechnung der City-Block-Distanz H zum Ermitteln
des Abweichungsbetrages x zwischen dem rechten und linken
Bild mittels einer Verschiebung der Pixelwerte Pixel um
Pixel, einen Minimum- und Maximumwertdetektor 50 zum Detektieren
des Minimumwerts HMIN und Maximumwerts HMAX für
die City-Block-Distanz H und eine Diskrepanzbetragsbestimmungseinrichtung
60 zum Ermitteln des Diskrepanzbetrags x
durch Prüfen, ob der Minimumwert, der durch den Detektor 50
gewonnen wurde, die Koinzidenz zwischen der rechten und
linken kleinen Region wiedergibt oder nicht. Der Distanzbildspeicher
20b umfaßt einen Dualportspeicher 90.
Der Bildumsetzer 30 umfaßt Analog/Digital(A/D)-Wandler
31a bzw. 31b jeweils entsprechend für die CCD-Kameras 11a
und 11b für das linke und rechte Bild, wobei die Wandler
jeweils mit Nachschlagetabellen 32a, 32b als Datentabellen
verbunden sind. Ferner sind Bildspeicher 33a und 33b zur
jeweiligen Speicherung der Bilder für die CCD-Kameras 11a
bzw. 11b vorgesehen. Da die weiter unten erläuterte City-
Block-Distanz-Berechnungseinrichtung 40 wiederholt einen
Teil des Bildes herausgreift und verarbeitet, können die
Bildspeicher 33a und 33b jeweils vergleichsweise geringe
Speichergeschwindigkeiten aufweisen, wodurch die Herstellungskosten
herabgesetzt sind.
Jeder der A/D-Wandler 31a und 31b weist eine Auflösung
von beispielsweise acht Bits auf und setzt das analoge Bild
von der rechten und linken CCD-Kamera 11a bzw. 11b in ein
digitales Bild um, das eine vorbestimmte Leuchtdichteabstufung
aufweist. Mit anderen Worten setzt der Wandler
das analoge Bild beispielsweise in eine Grauskala von
256 Abstufungen um, da Daten für die Berechnung der Koinzidenz
zwischen dem linken und rechten Bild augenblicklich
verlorengehen, wenn eine Binärverarbeitung des Bildes bei
hoher Verarbeitungsgeschwindigkeit ausgeführt wird.
Ferner ist jede der Nachschlagetabellen LUT 32a
und 32b im ROM ausgebildet, um den Kontrast eines Abschnitts
geringer Leuchtdichte im Bild, das durch die
A/D-Wandler 31a und 31b auf digitale Größe umgesetzt worden
ist, anzuheben, und um Unterschiede in den Eigenschaften
der linken und rechten CCD-Kamera 11a bzw. 11b zu
kompensieren. Das durch die LUT's 31a und 31b umgesetzte
Signal wird einmal und gleichzeitig in den Bildspeichern
33a bzw. 33b gespeichert.
In der City-Block-Distanzberechnungseinrichtung 40
sind Pufferspeicher 41a und 41b für die Eingabe über einen
gemeinsamen Bus 80 mit dem Bildspeicher 33a für das linke
Bild im Bildwandler 30 verbunden. Ein weiteres Paar Pufferspeicher
42a und 42b ist über einen gemeinsamen Bus 80 in
entsprechender Weise mit dem Bildspeicher 33b für das rechte
Bild verbunden.
Die Pufferspeicher 41a und 41b für das linke Bild sind
mit einem Paar Schieberegister 43a und 43b verbunden, die
jeweils einen achtstufigen Aufbau aufweisen, und das Paar
Eingangspufferspeicher 42a und 42b für das rechte Bild sind
mit einem Paar Schieberegister 44a und 44b verbunden, die
ebenfalls einen achtstufigen Aufbau aufweisen. Die Schieberegisterpaare
43a, 43b und 44a, 44b sind mit einer City-
Block-Distanzberechnungsschaltung 45 zur Berechnung der
City-Block-Distanz verbunden.
Ferner sind die Schieberegister 44a und 44b für das
rechte Bild ein Paar Schieberegister 64a und 64b mit jeweils
einem zehnstufigen Aufbau und sind in einer weiter unten
erläuterten Abweichungsbetrag-Bestimmungseinrichtung 60
angeordnet. Alte Daten nach Berechnung der City-Block-
Distanz h werden in die Schieberegister 64a und 64b geschoben,
um dort für die Bestimmung des Abweichungsbetrages x
zu dienen, wenn der Datentransfer bezüglich der nächsten
kleinen Region beginnt.
Die City-Block-Distanzberechnungsschaltung 45 ist mit
einem Hochgeschwindigkeits-CMOS-Rechner 46 verbunden, in dem
Addierer, Subtrahierer und gekoppelte Eingangs/Ausgangs-
Latchschaltungen auf einem Chip ausgebildet sind. Diese
Schaltung nimmt augenblicklich die acht Pixelkomponenten
auf und berechnet beispielsweise durch eine Pipeline-
Struktur, in der 16 Rechnereinheiten nach Art einer Pyramide
miteinander verbunden sind, gemäß Fig. 7, die acht Pixelkomponenten.
Die Pyramidenstruktur umfaßt eine erste Stufe
als Absolutwertberechner, zwei bis vier Stufen als ersten,
zweiten und dritten Addierer und eine Endstufe zur Bildung
der Gesamtsumme durch Addition. Die Fig. 7 zeigt nur die
halbe Struktur des Absolutwertberechners und der Addierer
der ersten und zweiten Stufe.
Die Eingangspufferspeicher 41a, 41b, 42a und 42b
weisen jeweils eine vergleichsweise geringe Kapazität auf
und sind entsprechend der Geschwindigkeit für die City-Block-
Distanzberechnung schnelle Speicher. Sie haben jeweils einen
unterteilten Eingang und Ausgang zum gemeinsamen Empfangen
einer Adresse, die von einer Nr. 1-Adressensteuereinrichtung
86 gemäß einem Takt erzeugt wird, der von einer Taktgeneratorschaltung
85 zugeführt wird. Eine Nr. 2-Adressensteuereinrichtung
87 steuert den Datentransfer zwischen dem Paar
Schieberegister 43a, 43b, 44a und 44b.
Der Minimum- und Maximumwertdetektor 50 umfaßt eine
Minimumwertdetektorschaltung 51 zum Detektieren des Minimumwerts
HMIN der City-Block-Distanz h und eine Maximumwertdetektorschaltung
52 zum Detektieren eines Maximumwerts HMAX
der City-Block-Distanz H und weist einen Aufbau mit zwei
Hochgeschwindigkeits-CMOS-Rechnern zur jeweiligen Bestimmung
des Minimum- und Maximumwertes mit derselben Auslegung wie
der City-Block-Distanzberechnungsschaltung 45 auf, um so
eine Synchronisation mit der Ausgabe der City-Block-Distanz H
aufrechtzuerhalten.
Wie in Fig. 8 gezeigt, umfaßt die Minimumwert-Detektorschaltung
51 im Detail einen Rechner 46 mit einem A-Register
46a, einem B-Register 46b und einer arithmetischen logischen
Einheit (ALU) 46c, einer C-Latch-Schaltung 53, einer Latch-
Schaltung 54 und einer D-Latch-Schaltung, die mit dem Rechner
46 verbunden sind. Das Ausgangssignal der City-Block-
Distanz-Berechnungsschaltung 45 wird dem A-Register 46a und
dem B-Register 46b über die C-Latch-Schaltung 53 zugeführt,
und das höchstwertige Bit (MSB) im Ausgangssignal
der ALU 46 wird an die Latch-Schaltung 54 ausgegeben. Ein
Ausgangssignal der Latchschaltung 54 wird dem B-Register
46b und der D-Latchschaltung 55 zugeführt. Das B-Register
46b speichert einen Zwischenwert der Minimumwertberechnung
im Rechner 46. Die D-Latchschaltung 55 speichert den
Diskrepanzbetrag oder Abweichungsbetrag δ der Minimumwertberechnung.
Die Maximumwert-Detektorschaltung 52
weist denselben Aufbau wie die Minimumwert-Detektorschaltung
51 auf mit Ausnahme einer entgegengesetzten Logik und
Nichtspeicherung des Abweichungsbetrages δ.
Wie zuvor erläutert, wird die City-Block-Distanz H
Schritt um Schritt mit der Verschiebung der Pixel Pixel um
Pixel von der kleinen Region des linken Bildes gegenüber
einer kleinen Region im rechten Bild berechnet. Demgemäß
können der Maximumwert und Minimumwert HMAX und HMIN der
City-Block-Distanz H in der kleinen Region durch Vergleich
und Erneuerung des vorhergehenden Maximum- und Minimumwerts
HMAX und HMIN für jedes Ausgangssignal eines Werts der
City-Block-Distanz H gewonnen werden, und es wird gleichzeitig
eine Ausgabe der letzten City-Block-Distanz H gewonnen.
Die Diskrepanzbetrag-Bestimmungseinrichtung 60 ist als
sogenannter RISK-Prozessor mit relativ geringem Umfang aufgebaut.
Die Bestimmungseinrichtung 60 umfaßt einen Rechner
61 als Hauptteil, einen 16-Bit-Datenbus 62a und 62b, eine
Latchschaltung 63a zum Halten des Abweichungsbetrages x,
eine Latchschaltung 63b zum Halten eines Schwellwerts HA
als ersten Bezugswert, eine Latchschaltung 63c zum Halten
eines Schwellwerts HB als zweiten Bezugswert, eine Latchschaltung
63d zum Halten eines Schwellwerts HC als dritten
Bezugswert, eine Schaltstufe 65 zur Ausgabe des Abweichungsbetrages
x oder eines Ausgangssignals "0" nach
Empfang des Ausgangssignals vom Rechner 61, Ausgangspufferspeicher
66a und 66b zur zeitweisen Speicherung eines Ausgangssignals
der Schaltstufe 65 und einen ROM 67 von 16 Bit
Breite zur Speicherung eines Steuerprogramms über die
Betriebszeitsteuerung der Schaltung und der Funktion
des Rechners 61.
Der Rechner 61 umfaßt eine ALU 70 als Hauptteil, ein
A-Register 71, ein B-Register 72 und ein F-Register 73 sowie
einen Selektierer 74. Das A-Register 71 ist mit dem Datenbus
62a (im folgenden als A-Bus 62a bezeichnet) verbunden,
und das B-Register 72 ist mit dem Datenbus 62b (im folgenden
als B-Bus 62b bezeichnet) verbunden, wodurch die Schaltstufe
65 in Abhängigkeit vom Berechnungsergebnis der ALU 70
aktiviert wird und der Abweichungsbetrag x oder das Ausgangssignal
"0" in den Ausgangspufferspeichern 66a und 66b
gespeichert werden.
Der A-Bus 62a ist mit der Maximumwert-Detektorschaltung
52, den Latchschaltungen 63b, 63c und 63d verbunden,
die jeweils die Schwellwerte HA, HB bzw. HC halten, und der
B-Bus 62b ist mit der Minimumwert-Detektorschaltung 51 verbunden.
Der A-Bus 62a und der B-Bus 62b sind jeweils mit den
zugehörigen Schieberegistern 64a bzw. 64b verbunden.
Die Schaltstufe 65 ist mit dem Rechner 61 und der
Minimumwert-Detektorschaltung 51 über die Latchschaltung 63a
verbunden. Der Rechner 61 bestimmt drei Prüfzustände, die
weiter unten erläutert sind, um ein bestimmtes Ergebnis zur
Änderung der Ausgangssignale für die Ausgangspufferspeicher
66a und 66b auszugeben.
Die Abweichungsbetragbestimmungseinrichtung 60 prüft,
ob der gewonnene Minimumwert HMIN der City-Block-Distanz
tatsächlich die Koinzidenz zwischen der linken kleinen Region
und der rechten kleinen Region darstellt oder nicht. Die Bestimmungseinrichtung
60 gibt den Abweichungsbetrag x der
Pixel entsprechend den Pufferspeichern 66a und 66b nur aus,
wenn diese Bedingung erfüllt ist.
Dementsprechend ist der Abweichungsbetrag der Abweichungsbetrag
x, der zu erhalten ist, wenn die City-Block-
Distanz H der Minimumwert HMIN ist. Der Abweichungsbetrag x
wird ausgegeben, wenn drei Prüfbedingungen, die weiter
unten ausgeführt sind, erfüllt sind, und "0" wird ausgegeben,
ohne die Daten zu übernehmen, wenn diese Bedingungen nicht
erfüllt sind:
(1) HMINHA (Die Distanz kann nicht gewonnen
werden, wenn HMIN<HA).
(2) HMAX-HMINHB (Dies ist die Bedingung zum
Prüfen, daß der gewonnene Minimumwert HMIN deutlich durch
Rauschflimmern niedrig ist, und der Prüfgegenstand ist
der Unterschied zwischen dem Minimumwert HMIN und dem
Maximumwert HMAX ohne die Differenz zwischen dem Minimumwert
HMIN und dem nächstgelegenen Wert hiervon, wodurch die
Distanz gegenüber einem Gegenstand wie einer gekrümmten
Oberfläche und dergleichen erfaßt wird, die die Leuchtdichte
langsam ändert, wobei sich die Werte aus dem Rauschen herausheben).
(3) Die Leuchtdichtedifferenz oder Helligkeitsdifferenz
zwischen benachbarten Pixeln in horizontaler Richtung
in der kleinen Region des rechten Bildes < HC (obgleich die
Detektion eine Kantendetektion ist, wenn der Schwellwert HC
groß wird, wird der Schwellwert HC auf einen geringeren Wert
als den gewöhnlichen Kantendetektionspegel gesetzt, weil es so
möglich ist, dem Fall zu entsprechen, bei dem sich die
Leuchtdichte langsam ändert. Diese Bedingung basiert auf
dem fundamentalen Prinzip, in dem die Distanz in einem Teil
ohne Leuchtdichteänderung nicht detektierbar ist. Da die
Detektion im Teil für jedes Pixel in der kleinen Region ausgeführt
wird, werden nur Pixel aufgegriffen, deren aktuelle
Distanz in der kleinen Region detektiert worden ist, wodurch
ein natürliches Ergebnis gewonnen wird).
Die Distanzverteilungsdaten, die als endgültiges Ergebnis
aus der Abweichungsbetrag-Bestimmungseinrichtung 60
ausgegeben werden, werden in einen Dualportspeicher 90 als
Distanzbildspeicher 20b über einen gemeinsamen Bus 80 ausgegeben.
Die Distanzverteilungsdaten vom Bildprozessor 20
liegen in Form eines Bildes (Distanzbildes) vor, wobei dieses
Bild beispielsweise durch die CCD-Kamera 11 gemäß Darstellung
in Fig. 9 abgebildet wird. Das Bild zur Darstellung
des jeweiligen Zustandes beispielsweise bedingt durch
parkende Autos 200 und 300 sowie eine Leitplanke 400
(gemäß der Abbildung, die durch eine Kamera in Fig. 9 aufgenommen
ist) wird vom Bildprozessor 20 zur Erzeugung des
in Fig. 10 gezeigten Bildes verarbeitet.
In einem Beispiel des in Fig. 10 gezeigten Distanzbildes
umfaßt das Bild eine Größe von 400mal 200 Pixel
in den beiden Dimensionen, wobei Distanzdaten in einem
schwarzen Abschnitt liegen, in dem eine Helligkeitsänderung
zwischen zwei aneinandergrenzenden Pixeln in rechter und
linker Richtung größer als innerhalb jeweiliger Pixel im
in Fig. 9 gezeigten Bild ist. Die Koordinatenachsen im Bild
sind so gelegt, daß die i-Koordinatenachse in horizontaler
Richtung ihren Ursprung in der oberen linken Ecke aufweist,
die vertikale Achse eine j-Koordinatenachse ist und als
Einheit Pixel gewählt ist, wie in Fig. 10 dargestellt ist.
Das Distanzbild wird in den Distanzbildverarbeitungscomputer
120 gelesen, um mehrere Gegenstände wie andere
Fahrzeuge und Hindernisse, die vor dem Fahrzeug vorhanden
sind, zu detektieren, um so eine Position und die Größe
der Gegenstände zu berechnen und hierdurch ein Umrißbild
der detektierten Gegenstände zu extrahieren. Ferner ist es
möglich, eine korrelative Geschwindigkeit der Gegenstände,
die durch eine Zeitverzögerung der jeweiligen Position verursacht
wird, zu berechnen.
In diesem Fall verwendet der Distanzbildverarbeitungscomputer
120 dreidimensionale Gegenstandsdaten und führt
eine Unterscheidung der Straße und des Hintergrundes in
Abhängigkeit von der Höhe der erfaßten Gegenstände von
der Straßenoberfläche aus sowie eine Unterscheidung des
Objekts vom Hintergrund in Abhängigkeit von einem Distanzwert.
Daher ändert der Distanzbildverarbeitungscomputer 120 zuerst
die Koordinatenachsen des Distanzbildes vom Bildprozessor 20
und setzt sie in die Koordinatenachsen des tatsächlichen
Raums um das Fahrzeugt 1 um, und berechnet die Position
und Größe entsprechend der detektierten Konstruktion.
Werden folglich, wie in den Fig. 11 und 12 gezeigt,
die Koordinatenachsen des tatsächlichen Raums auf die Koordinatenachsen
des Fahrzeugs 1 festgelegt, in denen eine
X-Achse die rechte Seite des Fahrzeugs 1 kennzeichnet, eine
Y-Achse über dem Fahrzeug liegt und eine Z-Achse der Vorwärtsrichtung
des Fahrzeugs 1 entspricht, so entspricht ein Ursprungspunkt
der Straßenoberfläche in der Mitte und unmittelbar
unter den beiden CCD-Kameras 11a (12a) und 11b (12b),
die X-Z-Ebene (Y=0) fällt mit der Straßenoberfläche für
den Fall zusammen, daß die Straße flach ist, und die dreidimensionale
Position des Gegenstandes kann entsprechend
der folgenden Gleichungen (3) und (4) in Abhängigkeit von
den Distanzdaten (i, j, Z) im Bild durch die folgende Art
von Koordinatenumsetzung gewonnen werden:
Y=CH-Z × PW × (j-JV) (3),
X=r/2+Z × PW × (i-IV) (4),
wobei
CH: Befestigungshöhe der CCD-Kamera 11 (12),
PW: Sichtwinkel pro einem Pixel,
JV, IV: eine Koordinate auf dem Bild von einem unendlich weiten Punkt unmittelbar vor dem Fahrzeug 1.
CH: Befestigungshöhe der CCD-Kamera 11 (12),
PW: Sichtwinkel pro einem Pixel,
JV, IV: eine Koordinate auf dem Bild von einem unendlich weiten Punkt unmittelbar vor dem Fahrzeug 1.
Ferner können die Gleichungen (3) und (4) in die folgenden
Gleichungen (5) und (6) geändert werden, um die Position
(i, j) auf dem Bild in Abhängigkeit von den dreidimensionalen
Achsen (X, Y, Z) des tatsächlichen Raums zu berechnen:
j=(CH-Y) / (Z × PW)+JV (5)
i=(X-r/2) / (Z × PW)+IV (6).
Falls die Befestigungsposition der CCD-Kamera 11 in den
XYZ-Koordinatenachsen des tatsächlichen Raums gezeigt wird,
betragen beispielsweise die Werte für die rechte Kamera 11b
X=0,20 (m), Y=1,24 (m) und Z=0,0 (m) und für die linke Kamera
X=-0,20 (m), Y=1,24 (m) und Z=0,0 (m).
Fig. 13 zeigt die funktionelle Auslegung des Distanzbildberechnungscomputers
120, der hauptsächlich eine Gegenstandserkennungseinrichtung
130 für den Mikroprozessor 120a
umfaßt, einen Seitenwanddetektor 140 für den Mikroprozessor
120b und einen Zwischenraumdistanzrechner 160 für den Mikroprozessor
120c. Das Verarbeitungsergebnis der Gegenstanderkennungseinrichtung
130 und des Seitenwanddetektors 140
wird in einem Konstruktionsparameter-Speicherabschnitt 150
gespeichert, der einen Ausgangsspeicher 125 umfaßt, und
wird in eine nicht dargestellte weitere Einrichtung des
Mikroprozessors 120c (Zwischenraumdistanzrechner 160)
und das ADA-System gelesen.
Ferner ist die Funktion der Gegenstandserkennungseinrichtung
130 in einen Objektdetektor oder Gegenstandsdetektor
131, eine Erzeugungseinrichtung für ein dreidimensionales
Fenster 132 und eine Gegenstandskonturextraktionseinrichtung
133 aufgeteilt. Die Gegenstandserkennungseinrichtung
131 teilt das Distanzbild aus dem Bildprozessor 20 in einem
vorbestimmten Intervall (beispielsweise Intervallen von
8 bis 20 Pixeln) in Streifenform auf, wobei er nur Aufbaudaten
selektiert, die eine Gefahr als Hindernis für die
Weiterfahrt darstellen, und berechnet die detektierte
Distanz.
Fig. 14 ist eine erläuternde Ansicht für das Festlegen
einer streifenförmigen Region auf dem hellen Bild, das als
die Ansicht des Fahrzeugs 1 nach vorn aufgenommen ist. Das
Distanzbild gemäß Fig. 10 wird gemäß Darstellung in Fig. 14
aufgeteilt. Im Ausführungsbeispiel wird das Bild in 30 sehr
kleine Regionen AR₁ bis AR₃₃ mit 12-Pixelintervallen aufgeteilt.
Da der Gegenstand durch Unterteilung des Bildes in
eine Vielzahl von Regionen aufgesucht wird, ist es folglich
möglich, eine Mehrzahl von Gegenständen verzögerungsfrei
zu detektieren.
Für den Gegenstand in jeder Region wird die dreidimensionale
Position (X, Y, Z) des tatsächlichen Raums aus den
Koordinaten (i, j) auf dem Bild berechnet sowie ferner die
Distanzdaten Z unter Verwendung der obigen Gleichungen (3)
und (4). Darüber hinaus kann die Höhe H des Objekts bei
der Distanz Z von der Straßenoberfläche durch die folgende
Gleichung (7) berechnet werden, wenn die Höhe der Straßenoberfläche
Yr beträgt:
H=Y-Yr (7).
Da die Koordinatenachsen gemäß Darstellung in den Fig. 11
und 12 festgelegt sind, kann Yr auf Yr=0,0 (m) gesetzt werden,
es sei denn, es liegen eine spezielle Neigung und ein
vertikaler Stoß bzw. eine vertikale Erschütterung auf dem
Fahrzeug 1 vor. Da ein Gegenstand mit einer unter 0,1 (m)
liegenden Höhe H wie weiße Linien, Steine oder Schatten auf
der Straße das Fahrzeug, das auf der Straße fährt, nicht
behindern, werden die Daten dieser Gegenstände verworfen.
Ein über der Höhe des Fahrzeugs liegender Gegenstand wird
als Fußgängerüberweg oder Überführung und Straßenschild
angenommen, die außer acht zu lassen sind, und die Vorrichtung
selektiert nur Daten mit einem Aufbau, der Hindernisse
auf der Straße darstellt. Falls daher der Gegenstand auf
der Straße auf dem zweidimensionalen Bild überlappt, kann
die Vorrichtung die Detektion nach einer Unterscheidung
der Daten entsprechend der Höhe über der Straßenoberfläche
durchführen und den Gegenstand eindeutig erfassen.
Darauffolgend zählt bezüglich der Konstruktions- oder
Aufbaudaten, die entsprechend oben dargelegtem Schema extrahiert
worden sind, die Vorrichtung die Anzahl von Daten,
die in einem vorbestimmten Abschnitt der Distanz C enthalten
sind, und erstellt ein Histogramm unter Verwendung der Distanz
Z als horizontaler Achse. In Fig. 15 ist ein Histogramm
des parkenden Autos 300 als detektierter Gegenstand auf der
rechten Seite vor dem Fahrzeug im Bildbeispiel, und eine
Anzahl und Länge des Abschnitts der Distanz Z werden unter
Berücksichtigung einer Detektionsgrenze und der Präzision
der Distanz Z sowie Form der Konstruktion wie einem detektierten
Gegenstand ermittelt.
Wenn ein fehlerhaft detektierter Wert oder fälschlicherweise
detektierter Wert in den Distanzdaten im Eingangsdistanzbild
vorhanden ist, erscheinen im Histogramm wenige
Daten an einer Position, bei der tatsächlich kein Gegenstand
vorliegt. Für den Fall jedoch, daß ein Gegenstand mit einer
vorbestimmten Größe vorhanden ist, zeigt die Häufigkeit
dieser Position einen großen Wert. Demgegenüber wird für
den Fall, daß kein Gegenstand vorhanden ist, die von den
fehlerhaften Distanzdaten erzeugte Häufigkeit einen geringen
Wert annehmen.
Falls demgemäß ein Abschnitt vorliegt, in dem die
Häufigkeit im erzeugten Histogramm über einem bestimmten
Beurteilungswert liegt und einen Maximalwert annimmt, so
ist im beurteilten Abschnitt ein Gegenstand vorhanden.
Liegt hingegen der Maximalwert der Häufigkeit unter dem
Beurteilungswert, so liegt in diesem Abschnitt kein Gegenstand
vor. Durch diese Maßnahme bleibt, selbst wenn in
den Bilddaten gewisse geringe Rauscheinflüsse enthalten
sind, der Rauscheinfluß innerhalb der minimalen Grenze
für die Detektion des Gegenstandes.
Kommt die Beurteilung zu dem Schluß, daß ein Gegenstand
existiert, so wird ein Mittelwert der Distanzdaten Z
des Aufbaus oder der Konstruktion, die im detektierten Abschnitt
und in Abschnitten vor und nach dem detektierten
Abschnitt enthalten ist, berechnet, um als Distanz zum Gegenstand
behandelt zu werden. Nachdem eine Distanzdetektion
ti des Gegenstandes in den vollständigen Regionen verarbeitet
worden ist, untersucht die Vorrichtung die detektierte
Distanz des Gegenstandes in jeder Region und urteilt,
daß der Gegenstand stets derselbe ist, wenn die Differenz
der Detektionsdistanz zum Gegenstand in angrenzenden Regionen
geringer als ein vorab festgelegter Wert ausfällt.
Ist hingegen die Differenz größer als der festgelegte Wert,
so urteilt die Vorrichtung, daß die Gegenstände voneinander
verschieden sind.
Im Detail wird eine linke Endbereichsregion AR₁ untersucht.
Wenn der Gegenstand detektiert ist, wird diese auf
den Gegenstand S₁ und die Distanz Z₁ gesetzt. Daraufhin
wird die nächst angrenzende rechte Region AR₂ untersucht.
Wenn kein Gegenstand detektiert wird, existiert der Gegenstand
S₁ innerhalb und um die Region AR₁, und die Distanz
wird als Z₁ beurteilt, um so den Gegenstand zu detektieren.
Wenn die detektierte Distanz Z₂ beträgt, wird die
Differenz zwischen den Distanzen Z₁ und Z₂ untersucht.
Liegt die Differenz zwischen den Distanzen Z₁ und Z₂
über dem festgesetzten Wert, wird geschlossen, daß das in
der Region AR₂ detektierte Objekt sich vom zuvor detektierten
Gegenstand S₁ unterscheidet und es sich um ein neues
Objekt S₂ und eine neue Distanz Z₂ handelt. Dann untersucht
die Vorrichtung weitere rechts benachbarte Regionen.
Ist andererseits die Differenz zwischen den Distanzen
Z₁ und Z₂ geringer als der festgelegte Wert, so wird geschlossen,
daß das in der Region AR₂ detektierte Objekt
der zuvor detektierte Gegenstand S₁ ist und daß die Distanz
ein Mittelwert von Z₁ und Z₂ ist. Dann werden weitere rechts
gelegene Regionen nacheinander untersucht, und die Distanz
und vorhandene Regionen werden erneuert, wenn das Objekt S₁
sich dahingehend erweist, daß es fortgesetzt vorhanden ist.
Es war üblicherweise schwierig, nur die Objektdaten
zu extrahieren, wenn auf dem zweidimensionalen Bild eine
Hintergrunddistanz um das Objekt abgebildet war. Da jedoch
die oben erwähnte Verarbeitung von der Region AR₁ am linken
Ende zur Region AR₃₃ am rechten Ende erfolgt, um die Daten
durch Distanzwerte zu sortieren, ist es möglich, durch Unterteilen
einer Mehrzahl von Abschnitten des Gegenstands und
des Hintergrunds mit Bezug auf die Distanz und die das Vorhandensein
anzeigenden Regionen eine Detektion durchzuführen,
wodurch es möglich ist, mehrere einander auf der zweidimensionalen
Darstellung überlagernde Gegenstände durch
deren Aufteilung in Abhängigkeit von den Distanzen jedes
Gegenstandes zu detektieren und voneinander zu unterscheiden.
Experimentelle Ergebnisse zeigten, daß der festgesetzte
Wert vorzugsweise 4 bis 6 m für die Detektion des Fahrzeugs
und 1 bis 2 m für die Detektion von Fußgängern ist.
Fig. 16 zeigt einen mit einer Linie umrissenen Block,
der eine Region anzeigt, in der gemäß obiger Detektion sich
ein Gegenstand befindet. In diesem Ausführungsbeispiel sind
zwei Gegenstände, nämlich ein Fahrzeug 200 auf der linken
Seite und ein Fahrzeug 300 auf der rechten Seite detektiert
worden. Ein numerischer Wert auf der Unterseite der Figur
entspricht der Detektionsdistanz jedes Gegenstandes.
Die Erzeugungseinrichtung 132 für das dreidimensionale
Fenster setzt eine Region für einen dreidimensionalen Raum
in Form einer rechtwinkligen Raumform fest, nämlich ein
dreidimensionales Fenster WD₃, das den detektierten Gegenstand
(das parkende Fahrzeug 300) im dreidimensionalen
Raum enthält, wie in Fig. 17 gezeigt ist, und zwar bezüglich
jedes der durch den Gegenstandsdetektor 131 detektierten
Gegenstände, und berechnet, wie das festgelegte
dreidimensionale Fenster WD₃ auf dem zweidimensionalen
Bild zu zeigen oder darzustellen ist, um so den detektierten
Gegenstand
nur bezüglich Daten innerhalb einer Fensterkonturlinie
wie dem zweidimensionalen Fenster WD₂ festzulegen.
Die horizontale Breite des dreidimensionalen Fensters
WD₃ liegt innerhalb eines Bereiches, der sich in eine jede
Region auf der linken und rechten Seite der Regionen erstreckt,
in denen der Gegenstand vorliegt. Daher werden
andere Gegenstände nicht detektiert, wenn die rechten und
linken Enden der Gegenstände sich auf irgendwelchen Regionen
überlappen. In diesem Fall wird der zu detektierende Gegenstand
nicht als vorhanden detektiert, da der Gegenstand auf dem
Histogramm keinen großen Wert hervorrufen kann, und es wird
der andere Gegenstand detektiert. Daher sollte der Fensterbereich
stets so ausgewählt und ausgedehnt werden, daß ein
solcher Zustand vermieden ist.
Die Länge in der Distanzrichtung Z des dreidimensionalen
Fensters WD₃ liegt innerhalb eines Bereiches, der die detektierte
Distanz des Objekts umfaßt und eine Sektionslänge des
Histogramms, zu der Abschnitte vor und hinter der detektierten
Distanz addiert sind. Das untere Ende des dreidimensionalen
Fensters WD₃ liegt bei einer Position, die sich durch
Addition von 0,1 m zur Höhe der Straßenoberfläche ergibt,
und das obere Ende fällt mit den oberen Enden jeder der
aufgeteilten Regionen für die Detektion des Gegenstandes
zusammen.
Zum Zwecke der Gewinnung des zweidimensionalen Fensters
WD₂ in Abhängigkeit vom dreidimensionalen Fenster WD₃ wird
zunächst die Koordinate (in, jn) auf dem Bild durch die
obige Gleichung (5) und Gleichung (6) abhängig von jeder
Koordinate (Xn, Yn, Zn) von acht Oberseiten des dreidimensionalen
Fensters WD₃ berechnet, und es wird ein acht
Oberseiten einhüllendes Polygon berechnet. Fig. 18 zeigt
ein Beispiel, für das das zweidimensionale Fenster WD₂ für
einen (das parkende Auto 300) der detektierten Gegenstände,
der in Fig. 16 dargestellt ist, gesetzt worden ist.
Die Gegenstandskonturextraktionseinrichtung 133 begutachtet
jede einzelne Date im zweidimensionalen Fenster
WD₂, selektiert nur Daten, die im dreidimensionalen Fenster
WD₃ enthalten sind, extrahiert ein Konturbild des detektierten
Gegenstandes und detektiert eine positionelle Beziehung
zwischen dem detektierten Gegenstand und der eigentlichen
Fahrzeugkarosserie des in Frage stehenden Fahrzeugs.
Folglich begutachtet die Extraktionseinheit 133 eine
um die andere Date in den zweidimensionalen Fenstern WD₂ für
jeden Gegenstand, berechnet die dreidimensionale Position
(X, Y, Z) durch die obigen Gleichungen (3) und (4) bezüglich
von Pixeln, die Distanzdaten umfassen, extrahiert nur Daten,
deren Distanz- und Höhewerte in einem Bereich des dreidimensionalen
Fensters WD₃ eingeschlossen sind, und verwirft die
übrigen Daten.
Fig. 19 zeigt die extrahierten Daten in der Weise,
daß sie auf das zweidimensionale Fenster projiziert sind.
Ferner wird ein Konturbild des Objekts durch Verbinden eines
Umrisses der Daten durch Linien gemäß Darstellung in Fig. 20
gewonnen. Eine Koordinate (i, j) auf den Bildern am linken
und rechten Ende und dem oberen Ende des Konturbildes wird
detektiert, um Positionen des linken und rechten Endes und
oberen Endes im dreidimensionalen Raum zu berechnen, indem
die Detektionsdistanz Z des Objekts und die oben erwähnten
Gleichungen (3) und (4) verwendet werden. Als Ergebnis kann
die Breite des Gegenstandes durch die Positionen vom linken
und rechten Ende gewonnen werden, und die Höhe des Objekts
kann aus der Lage des oberen Endes gewonnen werden. In
Fig. 20 ist es möglich, zu ermitteln, daß der Gegenstand
eine Breite von 1,7 m und eine Höhe von 1,3 m aufweist.
Ferner ist die Funktion des Seitenwanddetektors 140
durch den Mikroprozessor 120b weiter in eine Konstruktionsdatenextraktionseinrichtung
141, einen Seitenwand-Geradliniendetektor
142 und einen Seitenwandbereichsdetektor 143
unterteilt, in dem eine Unterscheidung der Seitenwand von
der Straße durch die Höhe von der Straßenoberfläche unterschieden
wird, und die Unterscheidung der Seitenwand vom
entfernten Hintergrund wird durch die Distanz vor und
hinter dem Fahrzeug und die benachbarte Distanz durchgeführt.
Folglich extrahiert der Detektor 140 nur Daten um
die Seitenwand herum, die als vorhanden vorausgesetzt wird,
und die extrahierten Seitenwanddaten werden durch die Hough-Transformation
im Hinblick auf die Charakteristiken detektiert,
die entlang der geraden Linie in der horizontalen
Richtung angeordnet sind, um die Position der Konstruktion
zu gewinnen.
Folglich extrahiert die Konstruktionsdatenextraktionseinrichtung
141 nur die Daten über der vorbestimmten Straßenoberfläche,
die vorab festgelegt wurde, aus den Distanzverteilungsdaten,
und der Seitenwandgeradliniendetektor 142
extrahiert nur die Daten innerhalb einer zuvor festgelegten
Seitenwandsuchregion, und die extrahierten Daten werden
durch die Hough-Transformation verarbeitet, wodurch eine
lineare Gleichung detektiert wird, die das Vorhandensein
oder Fehlen der Seitenwand und die Position der Seitenwand
anzeigt. Der Seitenwandbereichsdetektor 143 setzt eine
abgeschätzte Seitenwandregion fest, in der die Seitenwand
als vorhanden angenommen wird, auf der Grundlage der
geraden Linie, die die Position der Seitenwand anzeigt, und
detektiert die Position von Enden vor und hinter der Seitenwand
in Abhängigkeit vom Verteilungszustand der Konstruktionsdaten
in der abgeschätzten Seitenwandregion.
Da die Seitenwand ein Teil der Konstruktion ist,
extrahiert die Konstruktionsdatenextraktionseinrichtung 141
im Detail die Daten der Konstruktion über der Straßenoberfläche
aus den Distanzbildern. Da die eine Höhe unter 0,1 m
aufweisende Konstruktionen als weiße Linie, Stein oder
Schatten auf der Straße behandelt werden, werden zu diesem
Zeitpunkt derartige Daten verworfen. Da die Konstruktionen
mit einer Höhe oberhalb des Fahrzeugdachs als Fußgängerüberführung
und Verkehrszeichen oder Verkehrsschild identifiziert
werden, werden auch diese Daten verworfen. Folglich
extrahiert die Extraktionseinrichtung nur die Daten der
jeweiligen Konstruktion auf der Straße.
Obgleich die Konstruktionsdaten-Extraktionseinrichtung
141 die Daten der Konstruktion mit einem weiten auf dem
Bildschirm abgebildeten Bereich extrahiert, wird im Seitenwand-Geradliniendetektor
142 eine Grenze für den Seitenwandsuchbereich
gesetzt, da eine Verarbeitung über den gesamten
Datenumfang im Seitenbereich nicht vernünftig ist.
Überblickt man den Bereich, in dem das Bild aufgenommen
wird, ist das Sichtfeld der CCD-Kamera 11 auf die in Fig. 21
dargestellte Vogelschauperspektive beschränkt. Fährt das
Fahrzeug normal auf der Straße, so liegen Seitenwände auf
der linken und rechten Seite des Fahrzeugs 1 im wesentlichen
entlang des Fahrzeugs vor. Andererseits ist eine Seitenwand
in großem Abstand schwierig zu detektieren, und zwar hinsichtlich
der Präzision der Distanzdaten, und beinhaltet auch nur
eine geringe Notwendigkeit der Detektion. Folglich werden
im Hinblick auf diese Bedingungen zwei Suchbereiche SL und
SR auf der linken und rechten Seite festgelegt, und es werden
speziell die Seitenwände auf der rechten Seite und linken
Seite detektiert.
Mit anderen Worten setzt zur Detektion der Seitenwände
auf der linken und rechten Seite der Seitenwand-Geradliniendetektor
142 zunächst den Suchbereich auf der
linken Seite fest, um die Seitenwand-Geradlinienextraktionsverarbeitung
und die Seitenwanddetektionsverarbeitung so
durchzuführen, daß die linke Seitenwand erfaßt wird, und
dann setzt der Detektor 142 wieder den Suchbereich auf
der rechten Seite fest, um die obengenannten Verarbeitungsvorgänge
zur Detektion der rechten Seitenwand auszuführen.
Um die Konstruktionsdaten, die in den Suchbereichen
SL und SR enthalten sind, zu extrahieren, wird die dreidimensionale
Position (X- und Z-Koordinaten) des Objekts
jeder durch die Konstruktionsdatenextraktionseinrichtung
141 extrahierten Date berechnet, um die dreidimensionale
Position (X, Z) und jeden der Suchbereiche SR und SL zu
vergleichen und zu beurteilen.
Beispielsweise kann im in Fig. 22 gezeigten Zustand
jeder der Suchbereiche SR und SL durch eine gepunktete Linie
auf dem Bild dargestellt werden, wobei hier verschiedene
Konstruktionen im Suchbereich zusätzlich zur Seitenwand als
Gegenstand vorliegen. Da ferner noch Pseudodaten einschließlich
Rauschen im Distanzbild enthalten sind, liegen nur
verteilte Daten in dem Raum vor, in dem tatsächlich kein
Gegenstand vorliegt. In Fig. 23, die diese Daten als Modell
zeigt, weist die Seitenwand die Charakteristik auf, bei der
die Daten auf einer geraden Linie angeordnet sind. Entsprechend
wird die Seitenwand detektiert, indem die lineare
Gleichung des Datenzuges unter Verwendung einer Hough Transformation
berechnet wird.
Hier wird eine Detektion der linearen Gleichung durch
Hough Transformation beschrieben. Es wird vorausgesetzt, daß
eine gerade Linie Fi sich durch Konstruktionsdaten im Punkt
Pi erstreckt (Koordinate Xi, Zi), wie in Fig. 24 gezeigt
ist. Die lineare Gleichung ergibt sich dann folgendermaßen:
X=afi × Z+bfi (8).
Darauffolgend wird, wie in Fig. 25 gezeigt ist, ein
Parameterraum mit einer Neigung afi der Gleichung (8) als
vertikale Achse gesetzt und einem Bruchstück bfi (Achsenabschnitt)
als horizontale Achse. Ferner erfolgt eine Abstimmung
oder Auswahl an der Position entsprechend den Parametern
afi und bfi in der Gleichung nach Art einer Votierung.
Eine Variationsbreite der Neigung afi im Bereich von
±20° (afi: ±0,36) ist praktisch ausreichend, da die Seitenwand
als im wesentlichen parallel zum Fahrzeug 1 betrachtet
wird. Ein Wert für das Bruchstück bfi ist auf den Bereich
X=-1 bis -10 m beschränkt, als linke Seite des Fahrzeugs,
wenn die linke Seitenwand detektiert wird, und auf einen
Bereich von X=+1 bis +10 m für die rechte Seite, wenn die
rechte Seitenwand detektiert wird. Der Grund für diesen
begrenzten Bereich von ±10 m ist darin begründet, daß die
Detektion einer vom Fahrzeug weit abgelegenen Seitenwand
nur eine geringe Notwendigkeit für die Praxis aufweist.
Eine derartige Einschränkung führt dazu, daß der
Abstimmbereich oder Auswahlbereich auf dem Parameterraum
zu einem rechtwinkligen Bereich gemäß Darstellung in
Fig. 25 wird und diese rechtwinklige Fläche ferner in eine
Vielzahl von Rasterbereichen unterteilt wird, bei denen
jeweils eine Auswahl erfolgt. Die Neigung afi in Gleichung
(8) liegt innerhalb eines vorbestimmten Änderungsbereichs
(beispielsweise ±10° bis ±20°) und wird bei
jedem Intervall Δaf des Rasters mit einer Variation von
eins um eins festgelegt. Das Bruchstück bfi wird durch
Substituieren einer festgelegten Neigung afi und einer
Koordinate (Xi, Zi) der Konstruktionsdaten Pi für Gleichung
(8) berechnet, und die Auswahl wird für das Raster
entsprechend dem Parameterraum ausgeführt, falls der berechnete
Wert innerhalb des Beschränkungsbereichs liegt.
Die detektierte Position der Seitenwand, explizit
die Detektionsgenauigkeit der Neigung und des Abschnitts
oder Bruchstücks in der linearen Gleichung, wird durch
die Rasterintervalle Δaf und Δbf festgelegt, die durch
ein Erfordernis der externen Vorrichtung unter Verwendung
der Seitenwanddaten festgelegt werden. Beispielsweise
sollte das Rasterintervall Δaf zwischen 1 bis 2° liegen
und das Rasterintervall Δbf 0,3 bis 0,6 m betragen, um
als Meßeinrichtung für eine gefährliche Situation wie eine
Kollision verwendet werden zu können, wenn das Fahrzeug
normal auf der Straße fährt.
Wie oben beschrieben, erfolgt die Votierung des Parameterraums
mit den gesamten Konstruktionsdaten im Suchbereich.
Existieren dann, wie in Fig. 24 gezeigt ist, die
entlang einer geraden Linie angeordneten Daten, so liefert
das Raster entsprechend den Parametern afi und bfi der geraden
Linie, die auf eine Weite festgelegt werden, daß sie
mit dem Datenzug koinzidieren, zahlreiche Mehrheitsauswahlen
oder Votierungen, die lokal als Maximumwerte in jeder der
linken und rechten Auswahlregionen SL und SR erscheinen.
Der lokale Maximumwert wird zu einem großen Wert,
wenn die Seitenwand existiert und ein deutlicher Konstruktionsdatenzug
vorliegt, wohingegen der lokale Maximumwert
einen geringen Wert annimmt, wenn die Seitenwand nicht
vorliegt und eine Mehrzahl von Gegenständen sporadisch
existiert. Folglich werden die lokalen Maximumwerte in
jedem der linken und rechten Votierbereiche SL und SR im
Parameterraum detektiert, wodurch das Vorhandensein der
Seitenwand geschlossen wird, falls das detektierte lokale
Maximum über einem Beurteilungswert liegt. Der Beurteilungswert
wird unter der Berücksichtigung der Größe der festgelegten
Suchregion und der Distanz zwischen den Rasterlinien
festgelegt.
Wenn der Seitenwandgeradliniendetektor 142 ermittelt,
daß die Seitenwand vorhanden ist, detektiert der Seitenwandbereichsdetektor
143 die Positionen der vorderen und hinteren
Enden der Seitenwand. Wenn die Parameter af und bf aus den
entsprechenden Rastern der lokalen Maximumwerte ausgelesen
werden, wird die Seitenwand anhand der unteren linearen
Gleichung (9) abgeschätzt, und zwar als die gerade Linie Ff
gemäß Darstellung in Fig. 26, wenn die detektierte lineare
Gleichung beispielsweise in Fig. 24 dargestellt ist.
X=af × Z+bf (9).
Wenn die Region einer Breite von 0,3 bis 1,0 m an
der Mitte der geraden Linie Ff als eine Seitenwandkandidaten-Region
Tf angesetzt wird, wird diese Region in der Z-Richtung
gemäß Darstellung in Fig. 26 unterteilt. Die Breite der Seitenwandkandidatenregion Tf wird aus der Rasterdistanz Δbf
des Parameterraums unter der Berücksichtigung von Datenfehlern
und dergleichen festgesetzt.
Darauffolgend werden die Konstruktionsdaten in der
Suchregion sequentiell begutachtet, wobei nur die Daten
innerhalb der Seitenwandkandidatenregion Tf extrahiert
werden. Anschließend wird die Anzahl von Konstruktionsdaten
in jeder Sektion zur Bildung eines Histogramms gezählt. Das
in Fig. 27 als Modell dargestellte Histogramm umfaßt einen
Abschnitt, der von einer Seitenwand eingenommen wird und einen
hohen Häufigkeitsgrad aufweist. Folglich ist es möglich, zu
schließen, daß die Seitenwand in der Region vorliegt, indem
der Abschnitt ermittelt wird, in dem der Grad auf oder über
dem Beurteilungswert liegt, wobei die Positionen vom vorderen
und hinteren Ende durch Berechnen der dreidimensionalen
Position der Seitenwand festgelegt werden. Im in
Fig. 24 gezeigten Beispiel wird ein oberes Ende der Suchregion
SR als die Position des hinteren Endes der Seitenwand
(Leitplanke 400) angesehen.
Fig. 28 zeigt die durch die obige Verarbeitung detektierte
Seitenwand als Rahmenlinie. In diesem Beispiel kann
die Seitenplanke an der rechten Seite detektiert werden.
Wie oben erläutert ist es möglich, Parameter wie Position
und Form jedes Gegenstandes auf der Straße in Abhängigkeit
vom Distanzbild zu gewinnen, das in den Konstruktionsparameterspeicherabschnitt
150 zu schreiben ist. Dann berechnet
die Zwischenraumdistanzberechnungseinrichtung 160,
gebildet vom Mikroprozessor 120c, die Zwischenraumdistanz auf
der linken und rechten Seite zwischen dem Fahrzeug und dem
detektierten Gegenstand.
Ist beispielsweise in der Abbildung der Fig. 9 eine
X-Koordinate XL eine Seite des parkenden Fahrzeugs 200,
eine X-Koordinate XR eine Seite des parkenden Fahrzeugs 300
und eine X-Koordinate XWR ein Ende der Leitplanke 400 aus
Fig. 29, wird eine Distanz DL zwischen der verlängerten Linie
der linken Seite des Fahrzeugs 1 und dem parkenden Fahrzeug
200 auf der linken Seite aus Gleichung (10) berechnet, ferner
wird eine Distanz DR zwischen der verlängerten Linie der
rechten Seite des Fahrzeugs 1 zum parkenden Fahrzeug 300
auf der rechten Seite aus Gleichung (11) berechnet, und es
wird eine Distanz DWR zwischen der verlängerten Linie der
rechten Seite des Fahrzeugs 1 und der Leitplanke 400 auf
der rechten Seite aus Gleichung (12) berechnet, wenn die
Breite des Fahrzeugs 1 W beträgt.
DL= |XL| -W/2 (10)
DR= |XR| -W/2 (11)
DWR= |XWR| -W/2 (12).
Es erfolgt an jeder Kante eine Berechnung durch die
Gleichungen (10), (11) und (12), um so die Minimumwerte auf
der linken und rechten Seite zu gewinnen. Die Minimumwerte
werden zur nächsten Distanz, nämlich der Zwischenraumdistanz.
Zur Zwischenraumdistanz wird ein kleiner Raum für einen
Rückspiegel des Gegenstandfahrzeugs entsprechend der Darstellung
in Fig. 3 hinzuaddiert.
Da im in Fig. 9 gezeigten Beispiel die Distanz DR
zwischen dem parkenden Fahrzeug und dem Fahrzeug 1 geringer
als die Distanz DWR zwischen der Leitplanke 400 und dem
Fahrzeug 1 ist, wird die Distanz DR als rechte Zwischenraumdistanz
zur Ausgabe auf dem Display 3 aufgegriffen.
Ein Schwellwert wie beispielsweise 1 m wird für den
numerischen Wert der auf dem Display 3 darzustellenden
Zwischenraumdistanz vorgesehen, wobei ein numerischer Wert
oberhalb dieses Schwellwerts nicht dargestellt ist, und zwar
deshalb, weil es keinen Sinn macht, den numerischen Wert
noch darzustellen, wenn der Zwischenraum ausreichend groß
ist.
Im folgenden wird die Funktionsweise des Bildprozessors
20 und des Distanzbildverarbeitungscomputers 120
erläutert.
Fig. 30 ist ein Flußdiagramm, das den Funktionsfluß
des Bildprozessors 20 zeigt. Im Schritt S101 werden die
durch die CCD-Kameras 11a und 11b auf der linken und rechten
Seite aufgenommenen Bilder eingegeben. Im Schritt S102
führen, nachdem die eingegebenen analogen Bilder durch die
A/D-Wandler 31a und 31b in digitale Bilder umgesetzt worden
sind, die eine vorbestimmte Leuchtdichtegradation aufweisen,
die LUT's 32a und 32b eine Kompensation der Eigenschaften
der CCD-Kameras 11a und 11b auf der linken und
rechten Seite durch und erhöhen den Kontrast einer Komponente
niedriger Leuchtdichte, um dann die Bilddaten in den
Bildspeichern 33a und 33b zu speichern.
Die in den Speichern 33a und 33b gespeicherten Bilder
sind nur Linien, die für die Verarbeitung in den folgenden
Schritten erforderlich sind, innerhalb aller Zeilen (Linien)
der CCD-Elemente der CCD-Kameras 11a und 11b, und werden
erneut eingeschrieben mit einer Rate von einmal pro 0,1 s
(eine Rate von einmal pro 3 im TV-Bild).
Darauffolgend werden im Schritt S103 die Daten des
linken und rechten Bildes, die vier Linien oder Zeilen umfassen,
aus den Bildspeichern 33a und 33b für die linken
und rechten Bilder über den gemeinsamen Bus 80 in die Eingangspufferspeicher
41a, 41b, 42a und 42b gelesen, um so
eine Übereinstimmung oder Abstimmung, nämlich eine Koinzidenz
zwischen den zuvor eingelesenen linken und rechten Bildern
abzuschätzen.
Zu diesem Zeitpunkt werden Lese- und Schreiboperationen
alternierend wiederholt, wobei der Lesevorgang von den
Bildspeichern 33a und 33b zu den Eingangspufferspeichern
41a, 41b, 42a und 42b durchgeführt wird und der Schreibvorgang
zu den Schieberegistern 43a, 43b, 44a und 44b erfolgt.
Beispielsweise werden im linken Bild, während die Bilddaten
aus dem Bildspeicher 33a in den Pufferspeicher 41a auf
einer Seite eingelesen werden, die Bilddaten aus dem Eingangspuffer
auf der anderen Seite in das Schieberegister
43b geschrieben. Im rechten Bild werden, während die Bilddaten
aus dem Bildspeicher 33b in den Pufferspeicher 42a
auf einer Seite eingelesen werden, die Bilddaten aus dem
Pufferspeicher 42b auf der anderen Seite in das Schieberegister
44b geschrieben.
Wie in Fig. 31 gezeigt ist, speichern die Schieberegister
43a, 43b, 44a und 44b Bilddaten (1, 1) bis (4, 4) der
kleinen Regionen von 4×4 Pixeln im linken und rechten Bild,
in denen die Schieberegister 43a (44a) Daten der ersten und
zweiten Zeile und die Schieberegister 43b (44b) Daten der
dritten und vierten Zeile in der Reihenfolge der ungerade
numerierten Zeile und der geraden numerierten Zeile für
jedes Pixel speichern. Jedes der Schieberegister 43a, 43b,
44a und 44b weist eine unabhängige Übertragungszeile auf,
und die Daten von 4×4 Pixeln werden beispielsweise durch
acht Takte übertragen.
Der Inhalt der geraden Stufen innerhalb der acht Stufen
wird augenblicklich aus den Schieberegistern 43a, 43b,
44a, 44b in die City-Block-Distanzberechnungsschaltung 45
übergeben. Wenn die Berechnung der City-Block-Distanz H
beginnt, werden die rechten Bilddaten in den Schieberegistern
44a und 44b gespeichert, und es werden die Daten
ungerader Zeilen und die Daten gerader Zeilen abwechselnd
mit jedem Takt ausgegeben. Andererseits werden die linken
Bilddaten fortgesetzt in die Schieberegister 43a und 43b
übertragen und dann die Daten ungerader Zeilen und die
Daten gerader Zeilen alternierend ausgegeben, und es werden
die Daten jeweils ein Pixel pro zwei Takte nach rechts verschoben
und ersetzt. Dieser Vorgang wird wiederholt, bis
die Ersetzung von 100 Pixeln (200 Takte) erfolgt ist.
Anschließend, wenn die Übertragung bezüglich einer
kleinen Region abgeschlossen ist, beginnt der Prozeß in der
nächsten kleinen Region durch Setzen des Inhalts (eine
Anfangsadresse in der kleinen Region von 4×4 Pixeln) im
rechten Bildadreßzähler in den linken Bildadreßzähler in
einer Nr. 2-A Adressensteuereinrichtung 87.
In der City-Block-Distanzberechnungsschaltung 45 werden,
wie im Zeitdiagramm der Fig. 32 gezeigt, die Daten für
die acht Pixel zunächst in einen Absolutwertberechner in
der ersten Stufe der Pyramidenkonstruktion eingegeben, um
einen Absolutwert der Leuchtdichtedifferenz zwischen dem
linken und rechten Bild zu berechnen, wobei die Leuchtdichte
des linken Bildes von der Leuchtdichte des entsprechenden
rechten Bildes subtrahiert wird. Wenn das Subtraktionsergebnis
negativ ist, erfolgt die Subtraktion erneut, indem die
Subtraktionspositionen ausgetauscht werden, um den Absolutwert
zu berechnen. Folglich gibt es einmal eine Gelegenheit,
bei der zwei Subtraktionen in der Anfangsstufe ausgeführt
werden.
Nachdem die Anfangsstufe abgeschlossen ist, werden zwei
augenblickliche Eingangsdaten durch die ersten bis dritten
Addierer der zweiten bis vierten Stufe addiert, um Additionsdaten
auszugeben. Dann addiert der Gesamtsummenaddierer
in der Endstufe zwei kontinuierliche, zusammenhängende
Daten zueinander, um die gesamte Summe zu berechnen, so
daß die City-Block-Distanz H für erforderliche 16 Pixelkomponenten
alle zwei Takte zum Minimum- und Maximumwertdetektor
50 ausgegeben wird.
Darauffolgend werden im Schritt S104 der Maximumwert
HMAX und der Minimumwert HMIN für die City-Block-Distanz H
ermittelt, die im Schritt S103 berechnet worden ist. Wie
oben erwähnt, entsprechen die Ermittlungen von Maximumwert
HMAX und Minimumwert HMIN einander mit Ausnahme der entgegengesetzten
Logik und einer Speicherung des Abweichungsbetrags.
Folglich wird weiter unten die Detektion des Minimumwerts
HMIN als repräsentativ dargelegt.
Zunächst wird die City-Block-Distanz H (der Abweichungsbetrag
x=0) des ersten Ausgangssignals durch die C-Latchschaltung
53 der Minimumwertdetektorschaltung 51 aus
Fig. 8 zum B-Register 46b des Rechners 46 zugeführt. Die
City-Block-Distanz H (Abweichungsbetrag δ=1), die im
nächsten Takt ausgegeben wird, wird der C-Latchschaltung 53
und dem Rechner 46 zugeführt. Der Rechner 46 beginnt mit
der Vergleichsberechnung mit dem B-Register 46b gleichzeitig
mit der Eingabe der City-Block-Distanz H.
Als Ergebnis der Vergleichsberechnung im Rechner 46
wird, falls der Inhalt im A-Register 46a geringer als der
Inhalt im B-Register 46b ist, der Inhalt in der C-Latchschaltung
53 (nämlich der Inhalt im A-Register 46a) beim
nächsten Takt zum B-Register 46b übertragen, und der
Abweichungsbetrag δ zu diesem Zeitpunkt wird in der D-Latchschaltung
55 gespeichert. Gleichzeitig mit diesem Takt
wird die nächste City-Block-Distanz H (Abweichungsbetrag
δ=2) dem A-Register 46a und der C-Latchschaltung 53 zugeführt,
um die Vergleichsberechnung wieder zu starten.
Auf diese Weise wird, während der Minimumwert in der
Mitte der Berechnung gewöhnlich im B-Register 46b gespeichert
wird und der Abweichungsbetrag δ zu diesem Zeitpunkt
in der D-Latchschaltung 55 gespeichert wird, die
Berechnung fortgesetzt, bis der Abweichungsbetrag 100 wird.
Wenn die Berechnung abgeschlossen ist (nämlich einen Takt
nach Ausgabe der letzten City-Block-Distanz H), wird der
Inhalt im B-Register 46b und der D-Latchschaltung 55 in
die Abweichungsbetragbestimmungseinrichtung 60 gelesen.
Während dieser Verarbeitung liest die oben erwähnte
City-Block-Distanzberechnungsschaltung 45 den Anfangswert
der nächsten kleinen Region, um die Erzeugung einer Totzeit
zu vermeiden. Obgleich vier Takte für die Berechnung einer
City-Block-Distanz H in Anspruch genommen werden können,
da die Schaltung 45 eine Pipelinekonstitution aufweist,
neue Berechnungsergebnisse alle zwei Takte gewonnen
werden.
Wenn der Minimumwert HMIN und der Maximumwert HMAX der
City-Block-Distanz H im Schritt S104 erstellt sind, prüft
die Abweichungsbetrag- oder kurz Diskrepanzbestimmungseinrichtung
60 die oben erwähnten drei Bedingungen zur Ermittlung
des Abweichungsbetrags x im Schritt S105.
Folglich wird gemäß Darstellung in Fig. 33 der Minimumwert
HMIN über den B-Bus 62b in das B-Register 62 gegeben
und dort gespeichert, und der Schwellwert HA, der mit dem
Wert im B-Register 72 verglichen wird, wird über den A-Bus
62a in das A-Register 71 gegeben und dort gespeichert. Dann
vergleicht die ALU 70 beide Werte. Wenn der Minimumwert
HMIN größer als der Schwellwert HA ist, wird die Schaltstufe
65 so zurückgestellt, daß sie gewöhnlich "0" trotz
irgendeiner späteren Prüfung ausgibt.
Daraufhin wird der Maximumwert HMAX durch das A-Register
71 gespeichert, und die Differenz zwischen dem
Maximumwert HMAX, der im A-Register 71 gespeichert ist, und
dem Minimumwert HMIN, der im B-Register 72 gespeichert
wird, wird zur Ausgabe des Berechnungsergebnisses an das
F-Register 73 berechnet. Das A-Register 71 speichert den
Schwellwert HB beim nächsten Takt und vergleicht ihn mit
dem Wert im F-Register 73. Die Schaltstufe 65 wird auf
dieselbe Weise zurückgesetzt, wenn der Inhalt im F-Register
73 kleiner als der Schwellwert HB ist, der im A-Register
71 gespeichert ist.
Vom nächsten Takt an wird mit der Berechnung der
Leuchtdich 28787 00070 552 001000280000000200012000285912867600040 0002004446452 00004 28668tedifferenz zwischen benachbarten Pixeln begonnen.
Zwei Schieberegister 64a und 64b weisen einen
jeweils zehnstufigen Aufbau auf zur Speicherung der
Leuchtdichtedaten und sind mit den hinteren Stufen der
Schieberegister 44a und 44b der City-Block-Distanzberechnungseinheit
40 verbunden, in der das Schieberegister 44a
für die erste und zweite Zeile dient und das Schieberegister
44b für die dritte und vierte Zeile. Die Ausgänge
der Schieberegister 64a und 64b werden von der Endstufe
abgegriffen, und zwei vor der Endstufe zur Ausgabe an
den A-Bus 62a bzw. an den B-Bus 62b.
Wenn die Berechnung der Leuchtdichtedifferenz beginnt,
speichert jede Stufe in den Schieberegistern 64a und 64b
die Leuchtdichtedaten jeder Stelle in den kleinen Regionen,
und das A-Register 71 und das B-Register 72 im Rechner 61
speichern zunächst die Leuchtdichtedaten in der vierten
Spalte in der ersten Reihe der vorhergehenden kleinen Region
und die Leuchtdichtedaten in der ersten Spalte der
ersten Reihe der gegenwärtigen kleinen Region.
Der Rechner 61 berechnet einen Absolutwert der Differenz
zwischen dem Inhalt im A-Register 71 und dem Inhalt im
B-Register 72 zur Speicherung des berechneten Ergebnisses im
F-Register 73. Das A-Register 71 speichert den Schwellwert
HC beim nächsten Takt zum Vergleich dieses Werts mit dem
Wert im F-Register 73.
Ist als Ergebnis im Rechner 61 der Inhalt (der Absolutwert
der Leuchtdichtedifferenz) im F-Register 73 größer als
der Inhalt (Schwellwert HC) des A-Registers 71, so gibt
die Schaltstufe 65 den Abweichungsbetrag x oder "0" aus.
Ist demgegenüber der Inhalt im F-Register 73 kleiner als
der Inhalt im A-Register 71, so gibt die Schaltstufe 65 "0"
zur Einschreibung an der Position in der ersten Spalte der
ersten Reihe der kleinen Region entsprechend den Ausgangspuffern
66a und 66b aus.
Während der Rechner 61 die Leuchtdichtedifferenz zwischen
den benachbarten Pixeln mit dem Schwellwert HC vergleicht,
verschieben die Schieberegister 64a bzw. 64b
jeweils eine Stufe. Dann beginnt der Rechner 61 mit der
Berechnung der Leuchtdichtedaten in der vierten Spalte in
der zweiten Reihe in der vorhergehenden kleinen Region und
der Leuchtdichtedaten in der ersten Spalte in der zweiten
Reihe der gegenwärtigen kleinen Region. Auf diese Weise
wird nach Durchführung der wechselweisen Berechnung für
die erste und zweite Reihe der kleinen Region dieselbe
Berechnung bezüglich der dritten und vierten Reihe ausgeführt.
Während der Berechnung wird durch Verbinden der Endstufe
des Schieberegisters 64a mit der ersten Stufe des Schieberegisters
64b ein Ringregister gebildet. Wenn zwei Schiebetakte
nach der Berechnung für die Gesamtheit der kleinen
Regionen hinzugefügt bzw. addiert sind, geht der Inhalt im
Register auf den Zustand vor der Berechnung zurück. Wenn
die Leuchtdichtedaten in der nächsten kleinen Region für
die Übertragung vervollständigt sind, werden die Daten in
der vierten Reihe in der gegenwärtigen kleinen Region in
der Endstufe und vorausgehenden Stufe beibehalten.
Da auf diese Weise die nächsten Daten im A-Bus 62a und
B-Bus 62b vorgesehen werden und die Berechnungsergebnisse
dort eingeschrieben werden und zwar während der Berechnung
zur Ermittlung des Abweichungsbetrages, wird eine Date nur
durch zwei für die Berechnung erforderliche Takte verarbeitet.
Infolgedessen wird die gesamte Berechnung innerhalb
43 Takte abgeschlossen, obgleich die Anfangsprüfung für
den Minimumwert HMIN und den Maximumwert HMAX eingeschlossen
ist, und es ist ausreichend Zeit vorhanden, um den
Minimumwert HMIN und den Maximumwert HMAX der City-Block-Distanz
H hinsichtlich einer kleinen Region zu ermitteln,
wodurch hierbei die Möglichkeit der Hinzufügung einer
weiteren Funktion besteht.
Es wird im Schritt S106 der Abweichungsbetrag ermittelt,
wobei der Abweichungsbetrag x als Distanzverteilungsinformation
aus den Ausgangspufferspeichern 66a und 66b
zum Dualportspeicher 90 ausgegeben wird, um so die Verarbeitung
im Bildprozessor 20 zu beenden.
Die Ausgangspufferspeicher 66a und 66b weisen beispielsweise
eine Kapazität von vier Zeilen wie im Fall der oben
erwähnten Eingangspufferspeicher 41a, 41b, 42a und 42b auf.
Während die Distanzverteilungsdaten in ein Paar von zwei
Paaren eingeschrieben werden, werden die Daten von einem
weiteren Paar zweier Paare zum Dualportspeicher 90 übertragen.
Es ist möglich, die dreidimensionale Position im XYZ-Raum
des Gegenstandes entsprechend jedem Pixel aus der
Distanzverteilungsinformation zu berechnen, die in den Dualportspeicher
90 eingeschrieben ist, und zwar in Abhängigkeit
vom Linsenparameter wie einer Anbringungsposition und einer
Brennweite und dem Brennpunkt der CCD-Kameras 11 und 12,
wodurch es möglich ist, die Distanz des Gegenstandes außerhalb
des Fahrzeugs ohne Verschlechterung der Datenmenge
präzise zu ermitteln.
Es wird nun die gesamte Zeitsteuerung des Bildprozessors
20 entsprechend der Zeittabelle in Fig. 34 erläutert.
Zunächst schreiben die Bildspeicher 33a und 33b jeweils
das Teilbildsignal (field-signal) von der linken und rechten
CCD-Kamera 11a und 11b ein, die einander mit einer Zeitsteuerung
von jeweils 0,1 s synchronisieren (mit einer Rate
von einem Bild pro drei Bildern).
Daraufhin wird ein Block bei jeweils vier Zeilen nach
Empfang eines Aufnahmeendsignals übertragen. Die Übertragung
erfolgt durch Übertragen von drei Blöcken des rechten Bildes,
linken Bildes und des Distanzverteilungsbildes als Ergebnis
in dieser Reihenfolge.
Währenddessen erfolgt die Berechnung bezüglich eines
Abweichungsbetrages δ für einen der Eingangs- und Ausgangspufferspeicher.
Nach Verstreichen einer vorbestimmten Zeit
unter Berücksichtigung der Berechnungszeit für den Abweichungsbetrag
δ erfolgt eine Übertragung in den anderen der
Eingangs- und Ausgangspufferspeicher.
Hundert Berechnungen werden für die City-Block-Distanz
H hinsichtlich einer kleinen Region von 4×4 Pixeln eines
rechten Bildes durchgeführt, da die Berechnung durch Verschieben
von 100 Pixeln über das linke Bild ausgeführt wird.
Während die Berechnung bezüglich der City-Block-Distanz H
in einer Region ausgeführt wird, wird der Abweichungsbetrag
δ in der vorausgehenden Region als die Distanzverteilung
nach jeder Prüfung ausgegeben.
Beträgt die zu verarbeitende Zeilenzahl 200, wird eine
Verarbeitung für vier Zeilen 50mal wiederholt, wodurch eine
Verarbeitungszeit von acht Zeilen erforderlich ist, und
zwar vier Zeilen, um die Anfangsdaten beim Starten der Berechnung
zu übertragen, und von vier Zeilen, um das Endergebnis
nach Abschluß der Berechnung zum Bilderkennungsabschnitt
zu übertragen.
Im Ergebnis ist eine Zeit 0,076 s für die tatsächliche
Operation der Schaltung vom Beginn der Übertragung der
anfänglichen Eingangsbildzeile bis zum Ende der Übertragung
der Enddistanzverteilung erforderlich.
Ferner zeigen die Flußdiagramme der Fig. 35 und 36
eine Gegenstanddetektions-Verarbeitung, die im Mikroprozessor
120a erfolgt. Im Schritt S201 wird eine Position der
Straßenoberfläche gesetzt. Im Schritt S202 wird das Distanzbild
vom Bildprozessor 20 in rasterförmige Regionen aufgeteilt.
Im Schritt S203 werden die Daten aus der Anfangsregion
gelesen.
Darauffolgend fährt das Verfahren mit Schritt S204 fort,
und die Anfangsdaten in der Region werden gesetzt. Im
Schritt S205 erfolgt die Berechnung hinsichtlich der dreidimensionalen
Position (X, Y, Z) des Gegenstandes, nämlich
der Distanz und Höhe. Nachdem die Höhe der Straßenoberfläche
im Schritt S206 für die Distanz Z berechnet worden ist,
werden die Daten über der Straßenoberfläche im Schritt S207
selektiert.
Im Schritt S208 werden die Daten dahingehend überprüft,
ob die Daten Enddaten sind oder nicht. Wenn die Daten keine
endgültigen Daten sind, werden im Schritt S209 die nächsten
Daten in der Region gesetzt, um den Prozeß zum obenerwähnten
Schritt S205 zum Fortsetzen der Verarbeitung zurückzuführen.
Wenn die Daten endgültige Daten sind, schreitet
der Prozeß vom Schritt S208 mit Schritt S210 fort.
Im Schritt S210 wird ein Histogramm gebildet. Im
Schritt S211 wird die Sektion detektiert, in der der Grad
des Histogramms über dem Beurteilungswert liegt und einen
Maximalwert annimmt. Wenn die Sektion detektiert ist, in
der der Grad des Histogramms über dem Beurteilungswert liegt
und den Maximalwert annimmt, existiert der Gegenstand in
dieser Sektion, und es wird im Schritt S212 die Distanz
zum Gegenstand bestimmt.
Im Schritt S213 wird untersucht, ob die Region eine
Endregion ist oder nicht. Handelt es sich nicht um eine
Endregion, so werden die Daten in der nächsten Region im
Schritt S214 gelesen, um zum Schritt S204 zurückzukehren
und dieselbe Verarbeitung fortzusetzen. Ist die Region endgültig,
so schreitet der Prozeß zum Schritt S215 fort, um
die Distanz und die vorhandene Region des Gegenstandes zu
detektieren, um so die Detektion zu beenden und zum
Schritt S216 überzugehen.
Im Schritt S216 wird ein Parameter für den Anfangsgegenstand
gesetzt. Im Schritt S217 wird das dreidimensionale
Fenster WD₃ für die Höhe seines unteren Endes und den
Distanzbereich gesetzt. Im Schritt S218 wird die Form des
zweidimensionalen Fensters WD₂ abhängig vom dreidimensionalen
Fenster WD₃ berechnet, um dann mit dem Schritt S219 fortzufahren.
Im Schritt S219 werden die Daten aus dem zweidimensionalen
Fenster WD₂ gelesen. Nach Berechnen der dreidimensionalen
Position des Gegenstandes im Schritt S220 werden die
Daten im Schritt S221 selektiert und aus dem dreidimensionalen
Fenster WD₃ extrahiert.
Anschließend, wenn die Daten im Schritt S221 extrahiert
sind, erfolgt eine Projektion dieser Daten auf das
zweidimensionale Bild im Schritt S222, und anschließend
wird durch Verbinden aller Daten durch Linien im Schritt
S223 ein Konturbild erzeugt. Daraufhin werden im Schritt
S224 die Form, Größe, Position und Geschwindigkeit des
Gegenstandes berechnet. Im Schritt S225 wird geprüft, ob
der Gegenstand ein Endgegenstand ist oder nicht.
Ist der Gegenstand kein Endgegenstand, wird der
Parameter des nächsten Gegenstandes im Schritt S226 gesetzt,
um dann auf Schritt S217 zurückzugehen. Handelt es
sich um einen Endgegenstand, so werden im Schritt S227
Parameter wie Position, Form, Geschwindigkeit, Beschleunigung
und Möglichkeit einer Kollision des Gegenstandes
in den Ausgangsspeicher 125 gelesen, um den Prozeß abzuschließen.
Darüber hinaus führt der Mikroprozessor 120b die
Seitenwanddetektion gemäß Darstellung in den Fig. 37 und
38 parallel zur Objektdetektion durch den Mikroprozessor
120a aus. Bei dieser Seitenwanddetektion werden, wenn die
Straßenoberflächenposition im Schritt S301 gesetzt wird,
die Anfangsdistanzdaten im Schritt S302 aus dem Distanzbild
gelesen.
Darauffolgend werden im Schritt S303 die Position
(X, Z Koordinaten) und die Höhe (Y-Koordinate) des Gegenstandes
berechnet. Im Schritt S304 wird die Höhe H
(Y-Koordinate) berechnet, bezogen auf die Straßenoberfläche
in der Distanz Z. Im Schritt S305 werden die Daten über
der Straßenoberfläche und unter der Höhe des Fahrzeugs als
die Konstruktionsdaten extrahiert.
Im Schritt S306 werden die Daten dahingehend untersucht,
ob sie Enddaten darstellen oder nicht. Sind die Daten nicht
Enddaten, wird die nächste Distanzrate im Schritt S307 gelesen,
und der Prozeß geht zurück auf Schritt S303, um das
oben dargelegte Verfahren zu wiederholen. Wenn die Daten
Enddaten sind, geht der Prozeß von S306 auf S308.
Im Schritt S308 werden die anfänglichen Konstruktionsdaten
gelesen, und im Schritt S309 wird die Position (X,
Z Koordinaten) des Gegenstandes berechnet. Im Schritt
S310 wird die berechnete Position (X, Z Koordinaten) dahingehend
untersucht, ob sie sich in der Suchregion befindet
oder nicht.
Liegt die berechnete Position (X, Z Koordinate) außerhalb
der Suchregion, so springt der Prozeß vom Schritt
S310 zum Schritt S312. Liegt die Position innerhalb der
Suchregion, so schreitet der Prozeß von Schritt S310 mit
Schritt S311 fort, um eine Auswahl in dem Parameterraum
auszuführen und dann mit Schritt S312 fortzufahren.
Im Schritt S312 werden die verarbeiteten Konstruktionsdaten
daraufhin geprüft, ob sie Enddaten darstellen oder
nicht. Wenn die Daten nicht endgültig sind, werden die
nächsten Konstruktionsdaten im Schritt S313 gelesen, um
denselben Vorgang vom Schritt S309 an zu wiederholen.
Sind die Daten endgültig, so schreitet der Prozeß mit
Schritt S314 fort, um den lokalen Maximumwert im Parameterraum
zu detektieren.
Darauffolgend wird mit Schritt S315 fortgefahren, um
zu ermitteln, ob der lokale Maximumwert über dem Beurteilungswert
liegt oder nicht. Liegt der Wert unter dem Beurteilungswert,
so wird ermittelt, daß die Seitenwand
fehlt (Schritt S316). Liegt der Wert über dem Beurteilungswert,
so wird geschlossen, daß eine Seitenwand vorliegt
(S317). Dann wird mit Schritt S318 fortgefahren.
Im Schritt S318 erfolgt ein Leseprozeß nach einem
Parameter entsprechend dem Raster des lokalen Maximumwerts
aus Schritt S314, nämlich einem Parameter (af, bf) der
linearen Gleichung, die den lokalen Maximumpunkt zeigt.
Darauffolgend wird im Schritt S319 die Seitenwandkandidatenregion
gesetzt.
Im Schritt S320 werden die anfänglichen Strukturdaten
aus der Suchregion gelesen. Nach Berechnen der Position
(X, Z Koordinate) des Gegenstandes im Schritt S321, werden
die im Seitenwand-Abschätzungsbereich enthaltenen Daten
im Schritt S322 extrahiert. Anschließend werden im Schritt
S323 die Daten daraufhin untersucht, ob sie Enddaten innerhalb
der Suchregion sind oder nicht.
Handelt es sich nicht um Enddaten, so zweigt der
Prozeß von Schritt S323 zum Schritt S324 ab, um die nächsten
Strukturdaten in der Suchregion zu lesen und zum
Schritt S321 zurückzukehren. Sind die Daten in der Suchregion
Enddaten, d. h. liegen sie am Ende dieser Region,
so schreitet der Prozeß von Schritt S323 zum Schritt S325
fort, um das Histogramm unter Verwendung der Daten in dem
Seitenwandabschätzungsbereich zu bilden.
Im folgenden Schritt S326 wird der Häufigkeitsgrad
des gebildeten Histogramms untersucht, und festgestellt,
wo die Sektion liegt, in der der Grad über dem Beurteilungswert
liegt, wobei dann mit Schritt S327 fortgefahren
wird. Im Schritt S327 wird die dreidimensionale Position
beider Enden dieser Sektion bestimmt, in der der Grad des
Histogramms über dem Beurteilungswert liegend berechnet
wurde. Im Schritt S328 wird das Programm abgeschlossen,
indem die Parameter, wie das Vorliegen oder Fehlen, die
Position und die Richtung der Seitenwand und die Position
des vorderen und hinteren Endes, in den Ausgangsspeicher
125 eingeschrieben werden. Das Programm wird zunächst bezüglich
einer linken Seitenwand und dann bezüglich einer
rechten Seitenwand durchgeführt.
Durch den obigen Prozeß ist es möglich, die Position
und Größe einer Vorderwand und eines geparkten Fahrzeugs
bezüglich des in Frage stehenden Fahrzeugs 1 festzustellen,
und es ist möglich, das Programm zur Verarbeitung der
Zwischenraumdistanzberechnung gemäß Fig. 39 durch den
Mikroprozessor 120c durchzuführen.
In diesem Zwischenraumdistanzberechnungsprozeß werden
im Schritt S401 die Position der Kante oder des Randes
vom Objekt auf der Fahrzeugseite und die Position des
Endes der Seitenwand eingegeben. Dann werden im Schritt
S402 die rechte und linke Distanz jeweils für die X-Richtung
zwischen dem Ende der Seitenwand oder jedem Rand oder
jeder Kante des Gegenstandes und der verlängerten Linie des
Seitenbereichs vom Fahrzeug 1 ermittelt.
Im darauffolgenden Schritt S403 werden jeweils der
rechte und linke Minimumwert für jede der im Schritt S402
gewonnenen Distanzen ermittelt. Im Schritt S404 wird
ein kleiner Spielraum als die Zwischenraumdistanz zu jedem
der linken und rechten Minimumwerte hinzuaddiert, um dann
den numerischen Wert über die Displaysteuereinrichtung 126
auf der Anzeige oder dem Display 3 anzuzeigen.
Bezugszeichenliste
Fig. 1
15 Stereoskopische Bildverarbeitungseinrichtung
100 Objektdetektoreinrichtung
110 Zwischenraumdistanz-Berechnungseinrichtung
15 Stereoskopische Bildverarbeitungseinrichtung
100 Objektdetektoreinrichtung
110 Zwischenraumdistanz-Berechnungseinrichtung
Fig. 2
20 Bildprozessor
20a Distanzdetektorschaltung
20b Distanzbildspeicher
4 Geschwindigkeitssensor
5 Lenkwinkelsensor
6 Modussetzschalter
3 Displayeinrichtung
120a bis 120c Mikroprozessor
126 Displaysteuereinrichtung
127 Interfaceschaltung
125 Ausgangsspeicher
124 RAM
123 ROM
122 Interfaceschaltung
20 Bildprozessor
20a Distanzdetektorschaltung
20b Distanzbildspeicher
4 Geschwindigkeitssensor
5 Lenkwinkelsensor
6 Modussetzschalter
3 Displayeinrichtung
120a bis 120c Mikroprozessor
126 Displaysteuereinrichtung
127 Interfaceschaltung
125 Ausgangsspeicher
124 RAM
123 ROM
122 Interfaceschaltung
Fig. 3
3e Linksseitiger Zwischenraum 30 cm und rechtsseitiger Zwischenraum 10 cm
Cruise Fahren
3b Leiten
Assist Hilfe
Check Prüfen
3e Linksseitiger Zwischenraum 30 cm und rechtsseitiger Zwischenraum 10 cm
Cruise Fahren
3b Leiten
Assist Hilfe
Check Prüfen
Fig. 5
Left Camera = Linke Kamera
Right Camera = Rechte Kamera
Camera Position = Kameraposition
Projecting Surface = Projektionsfläche
Left Camera = Linke Kamera
Right Camera = Rechte Kamera
Camera Position = Kameraposition
Projecting Surface = Projektionsfläche
Fig. 6
33a Bildspeicher
33b Bildspeicher
41a-42b Speicher
86 Nr. 1 Adreß-Steuereinrichtung
85 Taktgeneratorschaltung
90 Dualportspeicher
87 Nr. 2 Adreß-Steuereinrichtung
66a, 66b Speicher
65 Schaltstufe
70 ALU
51 Minimumwertdetektorschaltung
52 Maximumwertdetektorschaltung
45 City-Block-Distanzberechnungsschaltung
32 LUT
33a Bildspeicher
33b Bildspeicher
41a-42b Speicher
86 Nr. 1 Adreß-Steuereinrichtung
85 Taktgeneratorschaltung
90 Dualportspeicher
87 Nr. 2 Adreß-Steuereinrichtung
66a, 66b Speicher
65 Schaltstufe
70 ALU
51 Minimumwertdetektorschaltung
52 Maximumwertdetektorschaltung
45 City-Block-Distanzberechnungsschaltung
32 LUT
Fig. 7
Total sum = Gesamtsumme
Addition = Addition
46 Absolutwertberechnung
unten: Links 1,1; Rechts 1,1 usw.
Total sum = Gesamtsumme
Addition = Addition
46 Absolutwertberechnung
unten: Links 1,1; Rechts 1,1 usw.
Fig. 8
Discrepancy amount = Abweichungsbetrag
Clock = Takt
MSB bleibt
unten = Ausgang der City-Block-Distanzberechnungsschaltung
Discrepancy amount = Abweichungsbetrag
Clock = Takt
MSB bleibt
unten = Ausgang der City-Block-Distanzberechnungsschaltung
Fig. 10
Coordinate = Koordinate
Coordinate = Koordinate
Fig. 13
20b Distanzbildspeicher
133 Objektkonturbildextraktionseinrichtung
131 Objektdetektor
132 Erzeugungseinrichtung für dreidimensionales Fenster
141 Objektdatenextraktionseinrichtung
142 Seitenwand-Geradliniendetektor
143 Seitenwandbereichsdetektor
150 Objektparameterspeicherabschnitt
160 Zwischenraumdistanzberechnungseinrichtung
20b Distanzbildspeicher
133 Objektkonturbildextraktionseinrichtung
131 Objektdetektor
132 Erzeugungseinrichtung für dreidimensionales Fenster
141 Objektdatenextraktionseinrichtung
142 Seitenwand-Geradliniendetektor
143 Seitenwandbereichsdetektor
150 Objektparameterspeicherabschnitt
160 Zwischenraumdistanzberechnungseinrichtung
Fig. 15
Degree = Grad
Distanz = Distanz
Maximum value = Maximalwert
Judge value = Beurteilungswert
Degree = Grad
Distanz = Distanz
Maximum value = Maximalwert
Judge value = Beurteilungswert
Fig. 16
(Detected distance) = (Detektierte Distanz)
(Detected distance) = (Detektierte Distanz)
Fig. 21
Linksseitiger Suchbereich SL
Rechtsseitiger Suchbereich SR
Sichtfeld der Kamera
Linksseitiger Suchbereich SL
Rechtsseitiger Suchbereich SR
Sichtfeld der Kamera
Fig. 22
Linksseitiger Suchbereich SL
Rechtsseitiger Suchbereich SR
Linksseitiger Suchbereich SL
Rechtsseitiger Suchbereich SR
Fig. 33
Noise shape data = Rauschformdaten
Data of parked car = Daten vom geparkten Fahrzeug
Data of guardrail = Leitplankendaten
Visual field of camera = Sichtfeld der Kamera
Left side search region SL = Linksseitiger Suchbereich SL
Right side search region SR = Rechtsseitiger Suchbereich SR
Data of building = Gebäudedaten
Data of thicket = Dickichtdaten
Data of grassland on hill = Grasbewuchsdaten von Anhöhe
Noise shape data = Rauschformdaten
Data of parked car = Daten vom geparkten Fahrzeug
Data of guardrail = Leitplankendaten
Visual field of camera = Sichtfeld der Kamera
Left side search region SL = Linksseitiger Suchbereich SL
Right side search region SR = Rechtsseitiger Suchbereich SR
Data of building = Gebäudedaten
Data of thicket = Dickichtdaten
Data of grassland on hill = Grasbewuchsdaten von Anhöhe
Fig. 24
Set region of slant afi = Festgelegter Bereich der Neigung afi
Straight line Fi = Gerade Linie Fi
Limit range of cut piece bfi = Grenzbereich für Abschnitt bfi
Object data Pi = Objektdaten Pi
Visual field of camera = Sichtfeld der Kamera
Set region of slant afi = Festgelegter Bereich der Neigung afi
Straight line Fi = Gerade Linie Fi
Limit range of cut piece bfi = Grenzbereich für Abschnitt bfi
Object data Pi = Objektdaten Pi
Visual field of camera = Sichtfeld der Kamera
Fig. 25
Left side voting region = Linksseitiger Votierbereich
Right side voting region = Rechtsseitiger Votierbereich
Grating = Raster
Left side voting region = Linksseitiger Votierbereich
Right side voting region = Rechtsseitiger Votierbereich
Grating = Raster
Fig. 26
Section = Sektion
Straight line Ff = Gerade Linie Ff
Visual field of camera = Sichtfeld der Kamera
Side wall candidate region Tf = Seitenwandkandidatenregion Tf
Section = Sektion
Straight line Ff = Gerade Linie Ff
Visual field of camera = Sichtfeld der Kamera
Side wall candidate region Tf = Seitenwandkandidatenregion Tf
Fig. 27
Degree = Grad
Section = Sektion
Judge value = Beurteilungswert
Side wall existing area = Seitenwandexistenzbereich
Degree = Grad
Section = Sektion
Judge value = Beurteilungswert
Side wall existing area = Seitenwandexistenzbereich
Fig. 28
Detected guardrail = Detektierte Leitplanke
Leftside search region SL = Linksseitiger Suchbereich SL
Rightside search region SR = Rechtsseitiger Suchbereich SR
Detected guardrail = Detektierte Leitplanke
Leftside search region SL = Linksseitiger Suchbereich SL
Rightside search region SR = Rechtsseitiger Suchbereich SR
Fig. 30
Start = Start
End = Ende
S101 = Bildeingabe
S102 = A/D-Wandlung
S103 = Suche nach einer Position entsprechender linker und rechter Bilder (Abstimmung durch City-Block-Distanz)
S104 = Detektion von Minimum- und Maximumwerten der City-Block-Distanz
S105 = Bestimmung vom Abweichungsbetrag von Positionen, die linken und rechten Bildern entsprechen
S106 = Distanzverteilungsausgabe
Start = Start
End = Ende
S101 = Bildeingabe
S102 = A/D-Wandlung
S103 = Suche nach einer Position entsprechender linker und rechter Bilder (Abstimmung durch City-Block-Distanz)
S104 = Detektion von Minimum- und Maximumwerten der City-Block-Distanz
S105 = Bestimmung vom Abweichungsbetrag von Positionen, die linken und rechten Bildern entsprechen
S106 = Distanzverteilungsausgabe
Fig. 31
Small regions = Kleine Regionen
Shift direction = Verschiebungsrichtung
For 1st and 2nd lines = Für erste und zweite Zeile
For 3rd and 4th lines = Für dritte und vierte Zeile
Output = Ausgang
Small regions = Kleine Regionen
Shift direction = Verschiebungsrichtung
For 1st and 2nd lines = Für erste und zweite Zeile
For 3rd and 4th lines = Für dritte und vierte Zeile
Output = Ausgang
Fig. 32
Clock = Takt
Input latch of first adder = Eingabe in latch vom Absolutwert-Berechner
darunter
Eingabe in latch vom ersten Addierer
Eingabe in latch vom zweiten Addierer
Eingabe in latch vom dritten Addierer
Eingabe in latch vom Gesamtsummenaddierer
Eingabe in latch der Minimum- und Maximumwertdetektorschaltung
First subtraction = Erste Subtraktion
Second subtraction = Zweite Subtraktion
Io = Geradzahl-Zeilendaten vom Abweichungsbetrag "0"
Ie = Ungeradzahl-Zeilendaten vom Abweichungsbetrag "0"
IIo = Geradzahlzeilendaten vom Abweichungsbetrag "1"
IIe = Ungeradzahl-Zeilendaten vom Abweichungsbetrag "1"
unten steht: Erstellung der City-Block-Distanz vom Abweichungsbetrag "0"
unten steht: Erstellung der City-Block-Distanz vom Abweichungsbetrag "1"
Clock = Takt
Input latch of first adder = Eingabe in latch vom Absolutwert-Berechner
darunter
Eingabe in latch vom ersten Addierer
Eingabe in latch vom zweiten Addierer
Eingabe in latch vom dritten Addierer
Eingabe in latch vom Gesamtsummenaddierer
Eingabe in latch der Minimum- und Maximumwertdetektorschaltung
First subtraction = Erste Subtraktion
Second subtraction = Zweite Subtraktion
Io = Geradzahl-Zeilendaten vom Abweichungsbetrag "0"
Ie = Ungeradzahl-Zeilendaten vom Abweichungsbetrag "0"
IIo = Geradzahlzeilendaten vom Abweichungsbetrag "1"
IIe = Ungeradzahl-Zeilendaten vom Abweichungsbetrag "1"
unten steht: Erstellung der City-Block-Distanz vom Abweichungsbetrag "0"
unten steht: Erstellung der City-Block-Distanz vom Abweichungsbetrag "1"
Fig. 33
Clock = Takt
A Bus
B Bus
Calculation = Berechnung
Switch circuit = Schaltstufe
Writing to . . . = Schreiben in Ausgang vom Pufferspeicher
In Zeile von A Bus steht: Leuchtdichte von (1,4) Pixel in der vorhergehenden kleinen Region
In Zeile von A Bus steht: Leuchtdichte von (2,4) Pixel in der vorhergehenden kleinen Region
In Zeile von A Bus steht: Leuchtdichte von (2,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (1,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (2,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (1,2) Pixel
In Zeile von B Bus steht: Leuchtdichte von (2,2) Pixel
In Zeile von Berechnung: Frühere kleine Region . . .
In Zeile von Schaltstufe: Reset - Reset Ausgabe
Ausgabe von Abweichungsbetrag oder "0"
Ausgabe von Abweichungsbetrag oder "0"
letzte Zeile: Schreib in (1,1) Schreib in (1,2)
Clock = Takt
A Bus
B Bus
Calculation = Berechnung
Switch circuit = Schaltstufe
Writing to . . . = Schreiben in Ausgang vom Pufferspeicher
In Zeile von A Bus steht: Leuchtdichte von (1,4) Pixel in der vorhergehenden kleinen Region
In Zeile von A Bus steht: Leuchtdichte von (2,4) Pixel in der vorhergehenden kleinen Region
In Zeile von A Bus steht: Leuchtdichte von (2,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (1,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (2,1) Pixel
In Zeile von B Bus steht: Leuchtdichte von (1,2) Pixel
In Zeile von B Bus steht: Leuchtdichte von (2,2) Pixel
In Zeile von Berechnung: Frühere kleine Region . . .
In Zeile von Schaltstufe: Reset - Reset Ausgabe
Ausgabe von Abweichungsbetrag oder "0"
Ausgabe von Abweichungsbetrag oder "0"
letzte Zeile: Schreib in (1,1) Schreib in (1,2)
Fig. 34
CCD Field signal = CCD Teilbildsignal
Picture input = Bildeingabe
Stand-by = Standby
Processing = Verarbeitung
Transfer = Transfer
darunter:
Vier Zeilen vom rechten Bild
Vier Zeilen vom linken Bild
Vier Zeilen vom Ergebnis
Calculation = Berechnung
darunter: Vier Zeilen vom Berechnungsprozeß wie bei der City-Block-Distanz
darunter: City-Block-Distanz Berechnung 4×4 Pixel
darunter: Prüfe hinsichtlich Differenz und Ergebnis
No work: Keine Arbeit
CCD Field signal = CCD Teilbildsignal
Picture input = Bildeingabe
Stand-by = Standby
Processing = Verarbeitung
Transfer = Transfer
darunter:
Vier Zeilen vom rechten Bild
Vier Zeilen vom linken Bild
Vier Zeilen vom Ergebnis
Calculation = Berechnung
darunter: Vier Zeilen vom Berechnungsprozeß wie bei der City-Block-Distanz
darunter: City-Block-Distanz Berechnung 4×4 Pixel
darunter: Prüfe hinsichtlich Differenz und Ergebnis
No work: Keine Arbeit
Fig. 35
S201 = Setze Position von Straßenoberfläche
S202 = Teile Distanzbild in Regionen
S203 = Lies Daten aus Anfangsregion
S214 = Lies Daten aus der nächsten Region
S204 = Setze Anfangsdaten
S209 = Setze nächste Daten
S205 = Berechne Distanz und Höhe vom Gegenstand
S206 = Berechne Höhe der Straßenoberfläche
S207 = Selektierte Daten auf oder über Straßenoberfläche
S208 = Enddate?
S210 = Bildung des Histogramms
S211 = Detektiere Sektion, in der der Grad über Beurteilungswert und Maximalwert liegt
S212 = Detektiere Vorhandensein oder Fehlen und Distanz vom Objekt
S213 = Endregion?
S215 = Detektiere Distanz und Existenzregion von jedem Gegenstand
S201 = Setze Position von Straßenoberfläche
S202 = Teile Distanzbild in Regionen
S203 = Lies Daten aus Anfangsregion
S214 = Lies Daten aus der nächsten Region
S204 = Setze Anfangsdaten
S209 = Setze nächste Daten
S205 = Berechne Distanz und Höhe vom Gegenstand
S206 = Berechne Höhe der Straßenoberfläche
S207 = Selektierte Daten auf oder über Straßenoberfläche
S208 = Enddate?
S210 = Bildung des Histogramms
S211 = Detektiere Sektion, in der der Grad über Beurteilungswert und Maximalwert liegt
S212 = Detektiere Vorhandensein oder Fehlen und Distanz vom Objekt
S213 = Endregion?
S215 = Detektiere Distanz und Existenzregion von jedem Gegenstand
Fig. 36
S216 = Setze Parameter von erstem Gegenstand
S226 = Setze Parameter von nächstem Gegenstand
S217 = Setze Höhe vom unteren Ende und Distanzbereich vom dreidimensionalen Fenster
S218 = Berechne zweidimensionale Fensterform
S219 = Lies Daten im zweidimensionalen Fenster
S220 = Berechne dreidimensionale Position vom Gegenstand
S221 = Selektion von im dreidimensionalen Fenster enthaltenen Daten
S222 = Projektion auf zweidimensionalen Schirm
S223 = Bilde Konturbild durch Verbinden von Daten durch Linien
S224 = Berechnung von Form, Größe, Position und Geschwindigkeit vom Gegenstand
S225 = Endgegenstand?
S227 = Schreib Parameter vom Gegenstand in Speicher
End = Ende
S216 = Setze Parameter von erstem Gegenstand
S226 = Setze Parameter von nächstem Gegenstand
S217 = Setze Höhe vom unteren Ende und Distanzbereich vom dreidimensionalen Fenster
S218 = Berechne zweidimensionale Fensterform
S219 = Lies Daten im zweidimensionalen Fenster
S220 = Berechne dreidimensionale Position vom Gegenstand
S221 = Selektion von im dreidimensionalen Fenster enthaltenen Daten
S222 = Projektion auf zweidimensionalen Schirm
S223 = Bilde Konturbild durch Verbinden von Daten durch Linien
S224 = Berechnung von Form, Größe, Position und Geschwindigkeit vom Gegenstand
S225 = Endgegenstand?
S227 = Schreib Parameter vom Gegenstand in Speicher
End = Ende
Fig. 37
S301 = Setze Position von Straßenoberfläche
S302 = Lies erste Distanzdaten
S307 = Lies nächste Distanzdaten
S303 = Berechne Position (X,Z-Koordinate) und Höhe (Y-Koordinate) vom Gegenstand
S304 = Berechne Höhe H (Y-Koordinate) von Straßenoberfläche
S305 = Extrahiere als Konstruktionsdaten die, die über der Straßenoberfläche und unterhalb der Höhe des Fahrzeugs liegen
S306 = Enddaten?
S308 = Lies Anfangskonstruktionsdaten
S313 = Lies nächste Konstruktionsdaten
S309 = Berechnung von Position (X,Z-Koordinate) vom Gegenstand
S310 = In Suchregion?
S311 = Votierung auf Parameterraum
S312 = Enddaten?
S314 = Detektion vom lokalen Maximumwert auf Parameterraum
S315 = Über Beurteilungswert?
S317 = Bestimme Vorhandensein von Seitenwand
S316 = Bestimme Fehlen von Seitenwand
S301 = Setze Position von Straßenoberfläche
S302 = Lies erste Distanzdaten
S307 = Lies nächste Distanzdaten
S303 = Berechne Position (X,Z-Koordinate) und Höhe (Y-Koordinate) vom Gegenstand
S304 = Berechne Höhe H (Y-Koordinate) von Straßenoberfläche
S305 = Extrahiere als Konstruktionsdaten die, die über der Straßenoberfläche und unterhalb der Höhe des Fahrzeugs liegen
S306 = Enddaten?
S308 = Lies Anfangskonstruktionsdaten
S313 = Lies nächste Konstruktionsdaten
S309 = Berechnung von Position (X,Z-Koordinate) vom Gegenstand
S310 = In Suchregion?
S311 = Votierung auf Parameterraum
S312 = Enddaten?
S314 = Detektion vom lokalen Maximumwert auf Parameterraum
S315 = Über Beurteilungswert?
S317 = Bestimme Vorhandensein von Seitenwand
S316 = Bestimme Fehlen von Seitenwand
Fig. 38
S318 = Lies Parameter (af, bf) von Geradlinien-Gleichung, gezeigt von lokalem Maximumpunkt
S319 = Setze Seitenwand Kandidatenregion
S320 = Lies Anfangsobjektdaten in Suchregion
S324 = Lies nächste Objektdaten in Suchregion
S321 = Berechne Position (X,Z-Koordinate) vom Gegenstand
S322 = Extraktion von Daten in Seitenwandkandidatenregion
S323 = Enddaten?
S325 = Bilde Histogramm aus Daten in Seitenwandkandidatenregion
S326 = Detektiere Sektion, in der der Grad über dem Beurteilungswert liegt
S327 = Berechne vordere und hintere Endposition von Seitenwand
S328 = Schreib Parameter von Seitenwand in Speicher
S318 = Lies Parameter (af, bf) von Geradlinien-Gleichung, gezeigt von lokalem Maximumpunkt
S319 = Setze Seitenwand Kandidatenregion
S320 = Lies Anfangsobjektdaten in Suchregion
S324 = Lies nächste Objektdaten in Suchregion
S321 = Berechne Position (X,Z-Koordinate) vom Gegenstand
S322 = Extraktion von Daten in Seitenwandkandidatenregion
S323 = Enddaten?
S325 = Bilde Histogramm aus Daten in Seitenwandkandidatenregion
S326 = Detektiere Sektion, in der der Grad über dem Beurteilungswert liegt
S327 = Berechne vordere und hintere Endposition von Seitenwand
S328 = Schreib Parameter von Seitenwand in Speicher
Fig. 39
S401 = Eingabe von Position einer Kante vom Gegenstand und Seitenwand
S402 = Ermittle jeweils linke und rechte Distanzen zwischen Verlängerungslinien des Fahrzeugs und Kanten des Gegenstandes oder Seitenwandende
S403 = Bestimme jeweils linken und rechten Minimumwert
S404 = Anzeige von linkem und rechtem Minimumwert als Zwischenraumdistanz auf Display
S401 = Eingabe von Position einer Kante vom Gegenstand und Seitenwand
S402 = Ermittle jeweils linke und rechte Distanzen zwischen Verlängerungslinien des Fahrzeugs und Kanten des Gegenstandes oder Seitenwandende
S403 = Bestimme jeweils linken und rechten Minimumwert
S404 = Anzeige von linkem und rechtem Minimumwert als Zwischenraumdistanz auf Display
Claims (9)
1. Fahrleitvorrichtung für ein Fahrzeug, in dessen vorderem
Bereich zwei Kameras zur Aufnahme einer dreidimensionalen
Abbildung von sich vor dem Fahrzeug befindenden Gegenständen
und zur Erzeugung eines Bildsignals angebracht sind, aufweisend:
eine stereoskopische Bildverarbeitungseinrichtung (15), die abhängig vom Bildsignal ein Paar stereoskopischer Bilder des Gegenstandes außerhalb des Fahrzeugs verarbeitet und ein Distanzsignal durch Ermitteln einer Distanzverteilung über ein gesamtes Bild in Abhängigkeit von durch Abweichungsbeträge (x) gekennzeichneten Positionen entsprechend dem Paar stereoskopischer Bilder gemäß einem Triangulationsprinzip liefert;
eine Objektdetektoreinrichtung (100), die abhängig von diesem Distanzsignal mehrere verschiedene Gegenstände durch Heranziehen von dreidimensionalen Positionsdaten detektiert, die für einen jeden Abschnitt des jeweiligen Gegenstandes entsprechend der Distanzverteilung berechnet werden, und die ein Distanzsignal erzeugt;
eine Zwischenraumdistanz-Berechnungseinrichtung (110), die abhängig von einem Verteilungssignal jeweils eine nächste Distanz linker und rechter Zwischenraumdistanzen, die jeweils von einer verlängerten Linie der linken oder rechten Seite des Fahrzeugs und jedem Ende der Fahrzeugseite zu den mehreren verschiedenen Gegenständen bestimmt sind, berechnet und ein Distanzsignal erzeugt; und
eine Informationseinrichtung (3; 115), die abhängig von diesem Distanzsignal einem Fahrer sich auf die rechten und linken Zwischenraumdistanzdaten beziehende Daten derart vermittelt, daß die Umgebungsbedingungen des Fahrzeugs vollständig und exakt angezeigt werden und die dem Fahrer auferlegte Last beim Fahren auf einem engen Fahrweg deutlich herabgesetzt ist.
eine stereoskopische Bildverarbeitungseinrichtung (15), die abhängig vom Bildsignal ein Paar stereoskopischer Bilder des Gegenstandes außerhalb des Fahrzeugs verarbeitet und ein Distanzsignal durch Ermitteln einer Distanzverteilung über ein gesamtes Bild in Abhängigkeit von durch Abweichungsbeträge (x) gekennzeichneten Positionen entsprechend dem Paar stereoskopischer Bilder gemäß einem Triangulationsprinzip liefert;
eine Objektdetektoreinrichtung (100), die abhängig von diesem Distanzsignal mehrere verschiedene Gegenstände durch Heranziehen von dreidimensionalen Positionsdaten detektiert, die für einen jeden Abschnitt des jeweiligen Gegenstandes entsprechend der Distanzverteilung berechnet werden, und die ein Distanzsignal erzeugt;
eine Zwischenraumdistanz-Berechnungseinrichtung (110), die abhängig von einem Verteilungssignal jeweils eine nächste Distanz linker und rechter Zwischenraumdistanzen, die jeweils von einer verlängerten Linie der linken oder rechten Seite des Fahrzeugs und jedem Ende der Fahrzeugseite zu den mehreren verschiedenen Gegenständen bestimmt sind, berechnet und ein Distanzsignal erzeugt; und
eine Informationseinrichtung (3; 115), die abhängig von diesem Distanzsignal einem Fahrer sich auf die rechten und linken Zwischenraumdistanzdaten beziehende Daten derart vermittelt, daß die Umgebungsbedingungen des Fahrzeugs vollständig und exakt angezeigt werden und die dem Fahrer auferlegte Last beim Fahren auf einem engen Fahrweg deutlich herabgesetzt ist.
2. Fahrleitvorrichtung nach Anspruch 1,
ferner gekennzeichnet durch
zwei Paare (11, 12) von (CCD-) Kameras in Form ladungsgekoppelter Bausteine, die jeweils als das Abbildungssystem (10) an einer Vorderseite des Fahrzeugs (1) unter einem vorbestimmten Abstand angeordnet sind, wobei ein Paar (12) für große Distanzen und ein Paar (11) für kurze Distanzen vorgesehen ist und jedes Paar über eine linke und rechte Kamera verfügt;
einen in der stereoskopischen Bildverarbeitungseinrichtung (15) vorgesehenen Bildprozessor (20) mit einer Distanzdetektoreinrichtung (20a) zum Aufsuchen eines Bereichs, in dem derselbe Gegenstand in jeder von kleinen Regionen des Paares stereoskopischer Bilder von den CCD-Kameras abgebildet ist, und zum Berechnen einer Distanz zum Gegenstand durch Ermitteln eines Abweichungsbetrages (x) einer diesem Bereich entsprechenden Position, und mit einem Distanzbildspeicher (20b) zum Speichern der von der Distanzdetektoreinrichtung (20a) ausgegebenen Distanzdaten;
einen Distanzbild-Verarbeitungscomputer (120), der als die Objektdetektoreinrichtung und die Zwischenraumdistanz-Berechnungseinrichtung dient und als Multi-Mikroprozessorsystem ausgelegt ist mit einem ersten Mikroprozessor (120a) zur hauptsächlichen Detektionsverarbeitung individueller Gegenstände, einem zweiten Mikroprozessor (120b) zur hauptsächlichen Detektionsverarbeitung einer Seitenwandung, einem dritten Mikroprozessor (120c) zur hauptsächlichen Berechnungsverarbeitung einer Zwischenraumdistanz und einem Systembus (121) zum parallelen Verbinden des ersten bis dritten Mikroprozessors; und
einer Displayeinrichtung (3) als die Informationseinrichtung (115) zur Anzeige von durch die Berechnungsverarbeitung der Zwischenraumdistanzen gewonnenen Zwischenraumdaten für den Fahrer.
zwei Paare (11, 12) von (CCD-) Kameras in Form ladungsgekoppelter Bausteine, die jeweils als das Abbildungssystem (10) an einer Vorderseite des Fahrzeugs (1) unter einem vorbestimmten Abstand angeordnet sind, wobei ein Paar (12) für große Distanzen und ein Paar (11) für kurze Distanzen vorgesehen ist und jedes Paar über eine linke und rechte Kamera verfügt;
einen in der stereoskopischen Bildverarbeitungseinrichtung (15) vorgesehenen Bildprozessor (20) mit einer Distanzdetektoreinrichtung (20a) zum Aufsuchen eines Bereichs, in dem derselbe Gegenstand in jeder von kleinen Regionen des Paares stereoskopischer Bilder von den CCD-Kameras abgebildet ist, und zum Berechnen einer Distanz zum Gegenstand durch Ermitteln eines Abweichungsbetrages (x) einer diesem Bereich entsprechenden Position, und mit einem Distanzbildspeicher (20b) zum Speichern der von der Distanzdetektoreinrichtung (20a) ausgegebenen Distanzdaten;
einen Distanzbild-Verarbeitungscomputer (120), der als die Objektdetektoreinrichtung und die Zwischenraumdistanz-Berechnungseinrichtung dient und als Multi-Mikroprozessorsystem ausgelegt ist mit einem ersten Mikroprozessor (120a) zur hauptsächlichen Detektionsverarbeitung individueller Gegenstände, einem zweiten Mikroprozessor (120b) zur hauptsächlichen Detektionsverarbeitung einer Seitenwandung, einem dritten Mikroprozessor (120c) zur hauptsächlichen Berechnungsverarbeitung einer Zwischenraumdistanz und einem Systembus (121) zum parallelen Verbinden des ersten bis dritten Mikroprozessors; und
einer Displayeinrichtung (3) als die Informationseinrichtung (115) zur Anzeige von durch die Berechnungsverarbeitung der Zwischenraumdistanzen gewonnenen Zwischenraumdaten für den Fahrer.
3. Fahrleitvorrichtung nach Anspruch 2,
ferner gekennzeichnet durch
eine Objekterkennungseinrichtung (130), die durch den ersten Mikrocomputer (120a) vorgesehen ist;
einen Seitenwanddetektor (140), der durch den zweiten Mikroprozessor (120b) vorgesehen ist;
einen Zwischenraumdistanz-Berechner (160), der durch den dritten Mikroprozessor (120c) vorgesehen ist;
einen Konstruktionsparameterspeicher (150) zum Speichern eines Verarbeitungsergebnisses von der Objekterkennungseinrichtung (130) und dem Seitenwanddetektor zur Ausgabe an den Zwischenraumdistanz-Berechner (160).
eine Objekterkennungseinrichtung (130), die durch den ersten Mikrocomputer (120a) vorgesehen ist;
einen Seitenwanddetektor (140), der durch den zweiten Mikroprozessor (120b) vorgesehen ist;
einen Zwischenraumdistanz-Berechner (160), der durch den dritten Mikroprozessor (120c) vorgesehen ist;
einen Konstruktionsparameterspeicher (150) zum Speichern eines Verarbeitungsergebnisses von der Objekterkennungseinrichtung (130) und dem Seitenwanddetektor zur Ausgabe an den Zwischenraumdistanz-Berechner (160).
4. Fahrleitvorrichtung nach Anspruch 3,
ferner gekennzeichnet durch
einen Objektdetektor (131), der das Distanzbild vom Distanzbildspeicher (20b) des Bildprozessors in vorbestimmte streifenförmige Intervallabschnitte aufteilt und zur Berechnung der detektierten Distanz nur Konstruktionsdaten selektiert, die als Gegenstand eine Gefahr für die Weiterfahrt darstellen;
eine Erzeugungseinrichtung (132) für ein dreidimensionales Fenster zur Festlegung einer dreidimensionalen Raumregion rechtwinkliger solider Raumform bezüglich der jeweiligen durch den Objektdetektor detektierten Gegenstände und zum Berechnen, wie sich das festgelegte dreidimensionale Fenster auf einem zweidimensionalen Bild darstellt, um so den detektierten Gegenstand nur bezüglich Daten innerhalb der Fensterumrißlinie gemäß dem zweidimensionalen Fenster festzulegen; und
eine Objektkontur-Extraktionseinrichtung (133), die Date um Date im zweidimensionalen Fenster begutachtet, um dann nur Daten zu selektieren, die im dreidimensionalen Fenster enthalten sind, die ein Konturbild des detektierten Gegenstandes extrahiert und die positionelle Beziehung zwischen dem detektierten Gegenstand und der fahrzeugeigenen Karosserie bestimmt.
einen Objektdetektor (131), der das Distanzbild vom Distanzbildspeicher (20b) des Bildprozessors in vorbestimmte streifenförmige Intervallabschnitte aufteilt und zur Berechnung der detektierten Distanz nur Konstruktionsdaten selektiert, die als Gegenstand eine Gefahr für die Weiterfahrt darstellen;
eine Erzeugungseinrichtung (132) für ein dreidimensionales Fenster zur Festlegung einer dreidimensionalen Raumregion rechtwinkliger solider Raumform bezüglich der jeweiligen durch den Objektdetektor detektierten Gegenstände und zum Berechnen, wie sich das festgelegte dreidimensionale Fenster auf einem zweidimensionalen Bild darstellt, um so den detektierten Gegenstand nur bezüglich Daten innerhalb der Fensterumrißlinie gemäß dem zweidimensionalen Fenster festzulegen; und
eine Objektkontur-Extraktionseinrichtung (133), die Date um Date im zweidimensionalen Fenster begutachtet, um dann nur Daten zu selektieren, die im dreidimensionalen Fenster enthalten sind, die ein Konturbild des detektierten Gegenstandes extrahiert und die positionelle Beziehung zwischen dem detektierten Gegenstand und der fahrzeugeigenen Karosserie bestimmt.
5. Fahrleitvorrichtung nach Anspruch 4,
ferner gekennzeichnet durch
eine Objektdaten-Extraktionseinrichtung (141), die nur Daten über einer vorbestimmten Straßenoberfläche selektiert, die vorab aus den Distanzverteilungsdaten festgelegt ist, die vom Distanzbildspeicher (20b) des Bildprozessors zugeführt wurden;
einen Seitenwand-Geradliniendetektor (143), der nur Daten innerhalb einer vorab festgesetzten Seitenwandsuchregion extrahiert, zur Verbreitung der extrahierten Daten durch die Hough-Transformation, wodurch eine lineare Gleichung erfaßt wird, die das Vorhandensein oder Fehlen einer Seitenwand und deren Position anzeigt; und
einen Seitenwandbereichsdetektor (143), der eine Seitenwandkandidatenregion festlegt, wobei das Vorliegen einer Seitenwand auf der Grundlage einer geraden, die Position der Seitenwand zeigenden Linie abgeschätzt wird, und der die Positionen von vorderen und hinteren Enden der Seitenwand abhängig vom Verteilungszustand der Konstruktionsdaten in der Seitenwandkandidatenregion detektiert.
eine Objektdaten-Extraktionseinrichtung (141), die nur Daten über einer vorbestimmten Straßenoberfläche selektiert, die vorab aus den Distanzverteilungsdaten festgelegt ist, die vom Distanzbildspeicher (20b) des Bildprozessors zugeführt wurden;
einen Seitenwand-Geradliniendetektor (143), der nur Daten innerhalb einer vorab festgesetzten Seitenwandsuchregion extrahiert, zur Verbreitung der extrahierten Daten durch die Hough-Transformation, wodurch eine lineare Gleichung erfaßt wird, die das Vorhandensein oder Fehlen einer Seitenwand und deren Position anzeigt; und
einen Seitenwandbereichsdetektor (143), der eine Seitenwandkandidatenregion festlegt, wobei das Vorliegen einer Seitenwand auf der Grundlage einer geraden, die Position der Seitenwand zeigenden Linie abgeschätzt wird, und der die Positionen von vorderen und hinteren Enden der Seitenwand abhängig vom Verteilungszustand der Konstruktionsdaten in der Seitenwandkandidatenregion detektiert.
6. Fahrleitverfahren für ein Fahrzeug, in dessen vorderem
Bereich zwei Kameras zur Aufnahme einer dreidimensionalen
Abbildung von sich vor dem Fahrzeug befindenden Gegenständen
und zur Erzeugung eines Bildsignals angebracht werden, beinhaltend:
einen Schritt der Verarbeitung eines Paares stereoskopischer Bilder des Gegenstandes außerhalb des Fahrzeugs und der Erzeugung eines Distanzsignals durch Ermitteln einer Distanzverteilung über ein gesamtes Bild in Abhängigkeit von durch Abweichungsbeträge gekennzeichneten Positionen entsprechend dem Paar stereoskopischer Bilder gemäß einem Triangulationsprinzip;
einen Schritt der Detektion mehrerer verschiedener Gegenstände durch Heranziehen von dreidimensionalen Positionsdaten, die für einen jeden Abschnitt des jeweiligen Gegenstandes entsprechend der Distanzverteilung berechnet werden, und der Erzeugung eines Distanzsignals;
einen Schritt der Berechnung einer nächsten Distanz linker und rechter Zwischenraumdistanzen, die jeweils von einer verlängerten Linie der linken oder rechten Seite des Fahrzeugs und jedem Ende der Fahrzeugseite zu den mehreren verschiedenen Gegenständen bestimmt werden; und
einen Schritt der Information eines Fahrers über sich auf die rechten und linken Zwischenraumdistanzdaten beziehenden Daten derart, daß die Umgebungsbedingungen des Fahrzeugs vollständig und exakt angezeigt werden und die dem Fahrer auferlegte Last beim Fahren auf einem engen Fahrweg deutlich herabgesetzt ist.
einen Schritt der Verarbeitung eines Paares stereoskopischer Bilder des Gegenstandes außerhalb des Fahrzeugs und der Erzeugung eines Distanzsignals durch Ermitteln einer Distanzverteilung über ein gesamtes Bild in Abhängigkeit von durch Abweichungsbeträge gekennzeichneten Positionen entsprechend dem Paar stereoskopischer Bilder gemäß einem Triangulationsprinzip;
einen Schritt der Detektion mehrerer verschiedener Gegenstände durch Heranziehen von dreidimensionalen Positionsdaten, die für einen jeden Abschnitt des jeweiligen Gegenstandes entsprechend der Distanzverteilung berechnet werden, und der Erzeugung eines Distanzsignals;
einen Schritt der Berechnung einer nächsten Distanz linker und rechter Zwischenraumdistanzen, die jeweils von einer verlängerten Linie der linken oder rechten Seite des Fahrzeugs und jedem Ende der Fahrzeugseite zu den mehreren verschiedenen Gegenständen bestimmt werden; und
einen Schritt der Information eines Fahrers über sich auf die rechten und linken Zwischenraumdistanzdaten beziehenden Daten derart, daß die Umgebungsbedingungen des Fahrzeugs vollständig und exakt angezeigt werden und die dem Fahrer auferlegte Last beim Fahren auf einem engen Fahrweg deutlich herabgesetzt ist.
7. Fahrleitverfahren nach Anspruch 6,
ferner gekennzeichnet durch
einen Schritt der Gewinnung von Daten großer Entfernung in einem Bild vor dem Fahrzeug;
einen Schritt der Gewinnung von Daten kleiner Entfernung in einem Bild vor dem Fahrzeug;
einen Schritt zum Aufsuchen eines Bereichs, in dem derselbe Gegenstand in jeder von kleinen Regionen des Paares stereoskopischer Bilder der CCD-Kameras abgebildet ist;
einen Schritt zum Berechnen einer Distanz zum Gegenstand durch Ermitteln eines Abweichungsbetrages einer diesem Bereich entsprechenden Position, und zum Speichern der von einer Distanzdetektoreinrichtung ausgegebenen Distanzdaten;
einen Schritt der Detektionsverarbeitung einer Seitenwand, der Zwischenraumdistanz-Berechnung, der Gegenstandsdetektionsverarbeitung und der parallelen Verbindung entsprechender Mikroprozessoren über einen Systembus; und
einen Schritt der Anzeige von durch die Berechnungsverarbeitungen der Zwischenraumdistanzen gewonnenen Zwischenraumdaten für den Fahrer.
einen Schritt der Gewinnung von Daten großer Entfernung in einem Bild vor dem Fahrzeug;
einen Schritt der Gewinnung von Daten kleiner Entfernung in einem Bild vor dem Fahrzeug;
einen Schritt zum Aufsuchen eines Bereichs, in dem derselbe Gegenstand in jeder von kleinen Regionen des Paares stereoskopischer Bilder der CCD-Kameras abgebildet ist;
einen Schritt zum Berechnen einer Distanz zum Gegenstand durch Ermitteln eines Abweichungsbetrages einer diesem Bereich entsprechenden Position, und zum Speichern der von einer Distanzdetektoreinrichtung ausgegebenen Distanzdaten;
einen Schritt der Detektionsverarbeitung einer Seitenwand, der Zwischenraumdistanz-Berechnung, der Gegenstandsdetektionsverarbeitung und der parallelen Verbindung entsprechender Mikroprozessoren über einen Systembus; und
einen Schritt der Anzeige von durch die Berechnungsverarbeitungen der Zwischenraumdistanzen gewonnenen Zwischenraumdaten für den Fahrer.
8. Fahrleitverfahren nach Anspruch 7,
ferner gekennzeichnet durch
einen Schritt, der das Distanzbild von einem Distanzbildspeicher eines Bildprozessors in vorbestimmte streifenförmige Intervallabschnitte aufteilt;
einen Schritt, der zur Berechnung der detektierten Distanz nur Konstruktionsdaten selektiert, die als Gegenstand eine Gefahr für die Weiterfahrt darstellen;
einen Schritt der Festlegung einer dreidimensionalen Raumregion rechtwinkliger solider Raumform bezüglich der jeweiligen durch einen Objektdetektor detektierten Gegenstände;
einen Schritt zum Berechnen, wie sich das festgelegte dreidimensionale Fenster auf einem zweidimensionalen Bild darstellt, um so den detektierten Gegenstand nur bezüglich Daten innerhalb der Fensterumrißlinie als das zweidimensionale Fenster festzulegen;
einen Schritt, der die Date um Date im zweidimensionalen Fenster begutachtet;
einen Schritt, um nur Daten zu selektieren, die im dreidimensionalen Fenster enthalten sind;
einen Schritt, der ein Konturbild des detektierten Gegenstandes extrahiert; und
einen Schritt, der die positionelle Beziehung zwischen dem detektierten Gegenstand und der fahrzeugeigenen Karosserie bestimmt.
einen Schritt, der das Distanzbild von einem Distanzbildspeicher eines Bildprozessors in vorbestimmte streifenförmige Intervallabschnitte aufteilt;
einen Schritt, der zur Berechnung der detektierten Distanz nur Konstruktionsdaten selektiert, die als Gegenstand eine Gefahr für die Weiterfahrt darstellen;
einen Schritt der Festlegung einer dreidimensionalen Raumregion rechtwinkliger solider Raumform bezüglich der jeweiligen durch einen Objektdetektor detektierten Gegenstände;
einen Schritt zum Berechnen, wie sich das festgelegte dreidimensionale Fenster auf einem zweidimensionalen Bild darstellt, um so den detektierten Gegenstand nur bezüglich Daten innerhalb der Fensterumrißlinie als das zweidimensionale Fenster festzulegen;
einen Schritt, der die Date um Date im zweidimensionalen Fenster begutachtet;
einen Schritt, um nur Daten zu selektieren, die im dreidimensionalen Fenster enthalten sind;
einen Schritt, der ein Konturbild des detektierten Gegenstandes extrahiert; und
einen Schritt, der die positionelle Beziehung zwischen dem detektierten Gegenstand und der fahrzeugeigenen Karosserie bestimmt.
9. Fahrleitverfahren nach Anspruch 8,
ferner gekennzeichnet durch
einen Schritt, der nur Daten über einer vorbestimmten Straßenoberfläche extrahiert, die vorab aus den Distanzverteilungsdaten festgelegt ist, die vom Distanzbildspeicher des Bildprozessors zugeführt wurden;
einen Schritt, der nur Daten innerhalb einer vorab festgesetzten Seitenwandsuchregion extrahiert;
einen Schritt zur Verarbeitung der extrahierten Daten durch die Hough-Transformation, wodurch eine lineare Gleichung erfaßt wird, die das Vorhandensein oder Fehlen einer Seitenwand und deren Position anzeigt;
einen Schritt, der eine Seitenwandkandidatenregion festlegt, wobei das Vorliegen einer Seitenwand auf der Grundlage einer geraden, die Position der Seitenwand zeigenden Linie abgeschätzt wird; und
einen Schritt, der die Positionen von vorderen und hinteren Enden der Seitenwand abhängig vom Verteilungszustand der Konstruktionsdaten in der Seitenwandkandidatenregion detektiert.
einen Schritt, der nur Daten über einer vorbestimmten Straßenoberfläche extrahiert, die vorab aus den Distanzverteilungsdaten festgelegt ist, die vom Distanzbildspeicher des Bildprozessors zugeführt wurden;
einen Schritt, der nur Daten innerhalb einer vorab festgesetzten Seitenwandsuchregion extrahiert;
einen Schritt zur Verarbeitung der extrahierten Daten durch die Hough-Transformation, wodurch eine lineare Gleichung erfaßt wird, die das Vorhandensein oder Fehlen einer Seitenwand und deren Position anzeigt;
einen Schritt, der eine Seitenwandkandidatenregion festlegt, wobei das Vorliegen einer Seitenwand auf der Grundlage einer geraden, die Position der Seitenwand zeigenden Linie abgeschätzt wird; und
einen Schritt, der die Positionen von vorderen und hinteren Enden der Seitenwand abhängig vom Verteilungszustand der Konstruktionsdaten in der Seitenwandkandidatenregion detektiert.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33019193A JP3522317B2 (ja) | 1993-12-27 | 1993-12-27 | 車輌用走行案内装置 |
JP330191/93 | 1993-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4446452A1 true DE4446452A1 (de) | 1995-06-29 |
DE4446452B4 DE4446452B4 (de) | 2006-11-16 |
Family
ID=18229856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4446452A Expired - Lifetime DE4446452B4 (de) | 1993-12-27 | 1994-12-23 | Fahrleitvorrichtung und Fahrleitverfahren für ein Fahrzeug |
Country Status (4)
Country | Link |
---|---|
US (2) | US5530420A (de) |
JP (1) | JP3522317B2 (de) |
DE (1) | DE4446452B4 (de) |
GB (1) | GB2285719B (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10319700A1 (de) * | 2003-05-02 | 2004-11-18 | Ibeo Automobile Sensor Gmbh | Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand |
DE10341128A1 (de) * | 2003-09-06 | 2005-03-31 | Daimlerchrysler Ag | Vorrichtung und Verfahren zur Erfassung eines momentanen Abstandes eines Kraftfahrzeugs von einem Hindernis |
DE10351915A1 (de) * | 2003-11-07 | 2005-06-09 | Volkswagen Ag | Überwachungsvorrichtung für ein Kraftfahrzeug |
DE102004009924A1 (de) * | 2004-02-23 | 2005-09-01 | Valeo Schalter Und Sensoren Gmbh | Verfahren und Warnvorrichtung zum grafischen Aufbereiten eines Bildes einer Kamera |
DE102004029985A1 (de) * | 2004-06-21 | 2006-01-19 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
WO2008155006A1 (de) * | 2007-06-16 | 2008-12-24 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur unterstützung eines fahrers eines kraftfahrzeugs bei der durchfahrt des kraftfahrzeugs durch eine engstelle und/oder zum einhalten eines sicherheitsabstandes zum vorderfahrzeug |
DE19755963B4 (de) * | 1996-12-16 | 2009-06-18 | Nissan Motor Co., Ltd., Yokohama-shi | Fahrzeuggeschwindigkeitssteuerungssystem |
US8994520B2 (en) | 2010-09-15 | 2015-03-31 | Continental Teves Ag & Co. Ohg | Visual driver information and warning system for a driver of a motor vehicle |
WO2016075138A1 (de) * | 2014-11-10 | 2016-05-19 | Bombardier Transportation Gmbh | Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem |
US9609289B2 (en) | 2004-04-15 | 2017-03-28 | Magna Electronics Inc. | Vision system for vehicle |
US9643605B2 (en) | 2002-05-03 | 2017-05-09 | Magna Electronics Inc. | Vision system for vehicle |
US10071676B2 (en) | 2006-08-11 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
Families Citing this family (311)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5910854A (en) | 1993-02-26 | 1999-06-08 | Donnelly Corporation | Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US6498620B2 (en) | 1993-02-26 | 2002-12-24 | Donnelly Corporation | Vision system for a vehicle including an image capture device and a display system having a long focal length |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US6396397B1 (en) * | 1993-02-26 | 2002-05-28 | Donnelly Corporation | Vehicle imaging system with stereo imaging |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
JPH07189795A (ja) * | 1993-12-28 | 1995-07-28 | Hitachi Ltd | 自動車の制御装置及び制御方法 |
US5668663A (en) | 1994-05-05 | 1997-09-16 | Donnelly Corporation | Electrochromic mirrors and devices |
JPH08167100A (ja) * | 1994-12-12 | 1996-06-25 | Hisaji Nakamura | 操縦装置 |
JP3246243B2 (ja) * | 1994-12-26 | 2002-01-15 | いすゞ自動車株式会社 | 車線逸脱警報装置 |
JP3470453B2 (ja) * | 1995-04-06 | 2003-11-25 | 株式会社デンソー | 車間距離制御装置 |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
JP3390289B2 (ja) * | 1995-06-16 | 2003-03-24 | 富士重工業株式会社 | 警報装置 |
US5887268A (en) * | 1995-10-31 | 1999-03-23 | Honda Giken Kogyo Kabushiki Kaisha | Automatically driven motor vehicle |
US6053270A (en) * | 1995-11-02 | 2000-04-25 | Honda Giken Kogyo Kabushiki Kaisha | Steering angle correcting system in vehicle |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
JP3577851B2 (ja) * | 1996-10-03 | 2004-10-20 | トヨタ自動車株式会社 | 走行制御装置 |
JP3337197B2 (ja) * | 1997-04-04 | 2002-10-21 | 富士重工業株式会社 | 車外監視装置 |
JPH10320561A (ja) * | 1997-05-21 | 1998-12-04 | Oki Data:Kk | 画像処理方法及びその装置 |
US6757009B1 (en) | 1997-06-11 | 2004-06-29 | Eaton Corporation | Apparatus for detecting the presence of an occupant in a motor vehicle |
US6275231B1 (en) * | 1997-08-01 | 2001-08-14 | American Calcar Inc. | Centralized control and management system for automobiles |
US6326613B1 (en) | 1998-01-07 | 2001-12-04 | Donnelly Corporation | Vehicle interior mirror assembly adapted for containing a rain sensor |
US8294975B2 (en) | 1997-08-25 | 2012-10-23 | Donnelly Corporation | Automotive rearview mirror assembly |
US6124886A (en) | 1997-08-25 | 2000-09-26 | Donnelly Corporation | Modular rearview mirror assembly |
US6172613B1 (en) | 1998-02-18 | 2001-01-09 | Donnelly Corporation | Rearview mirror assembly incorporating vehicle information display |
FR2770317B1 (fr) * | 1997-10-24 | 2000-12-08 | Commissariat Energie Atomique | Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes |
US6445287B1 (en) | 2000-02-28 | 2002-09-03 | Donnelly Corporation | Tire inflation assistance monitoring system |
US8288711B2 (en) | 1998-01-07 | 2012-10-16 | Donnelly Corporation | Interior rearview mirror system with forwardly-viewing camera and a control |
JPH11213137A (ja) * | 1998-01-29 | 1999-08-06 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
JP3516856B2 (ja) * | 1998-01-30 | 2004-04-05 | 富士重工業株式会社 | 車外監視装置 |
US6278479B1 (en) | 1998-02-24 | 2001-08-21 | Wilson, Hewitt & Associates, Inc. | Dual reality system |
EP1408693A1 (de) * | 1998-04-07 | 2004-04-14 | Matsushita Electric Industrial Co., Ltd. | Bildanzeigegerät an Bord eines Fahrzeugs, Bildsendersystem, -sendegerät und -aufnahmegerät |
US6693517B2 (en) | 2000-04-21 | 2004-02-17 | Donnelly Corporation | Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants |
US6477464B2 (en) | 2000-03-09 | 2002-11-05 | Donnelly Corporation | Complete mirror-based global-positioning system (GPS) navigation solution |
US6329925B1 (en) | 1999-11-24 | 2001-12-11 | Donnelly Corporation | Rearview mirror assembly with added feature modular display |
EP2267656A3 (de) * | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Bildanzeigevorrichtung und Bildanzeigeverfahren |
EP1038734B1 (de) * | 1998-10-08 | 2019-05-15 | Panasonic Intellectual Property Corporation of America | Fahrhilfevorrichtung und aufzeichnungsmedium |
JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
JP4114292B2 (ja) * | 1998-12-03 | 2008-07-09 | アイシン・エィ・ダブリュ株式会社 | 運転支援装置 |
US6396535B1 (en) * | 1999-02-16 | 2002-05-28 | Mitsubishi Electric Research Laboratories, Inc. | Situation awareness system |
JP3807583B2 (ja) * | 1999-04-19 | 2006-08-09 | 本田技研工業株式会社 | 道路領域判定装置 |
JP4028135B2 (ja) * | 1999-05-27 | 2007-12-26 | 本田技研工業株式会社 | 物体検出装置 |
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
US7366595B1 (en) * | 1999-06-25 | 2008-04-29 | Seiko Epson Corporation | Vehicle drive assist system |
JP3349121B2 (ja) * | 1999-09-22 | 2002-11-20 | 富士重工業株式会社 | ステレオカメラの取付構造 |
JP3877475B2 (ja) * | 1999-09-22 | 2007-02-07 | 富士重工業株式会社 | 車載カメラの取付構造 |
JP3263931B2 (ja) * | 1999-09-22 | 2002-03-11 | 富士重工業株式会社 | ステレオマッチング装置 |
US6411867B1 (en) | 1999-10-27 | 2002-06-25 | Fujitsu Ten Limited | Vehicle driving support system, and steering angle detection device |
GB2358975B (en) * | 2000-02-05 | 2004-05-05 | Jaguar Cars | Motor vehicle trajectory measurement |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
US7167796B2 (en) | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
EP1263626A2 (de) | 2000-03-02 | 2002-12-11 | Donnelly Corporation | Video-spiegelsystem mit zusatzmodul |
US7855755B2 (en) | 2005-11-01 | 2010-12-21 | Donnelly Corporation | Interior rearview mirror assembly with display |
US6396408B2 (en) | 2000-03-31 | 2002-05-28 | Donnelly Corporation | Digital electrochromic circuit with a vehicle network |
JP2001344597A (ja) * | 2000-05-30 | 2001-12-14 | Fuji Heavy Ind Ltd | 融合視界装置 |
US6535242B1 (en) * | 2000-10-24 | 2003-03-18 | Gary Steven Strumolo | System and method for acquiring and displaying vehicular information |
JP4823448B2 (ja) * | 2000-11-24 | 2011-11-24 | トヨタ自動車株式会社 | 警報装置 |
WO2006124682A2 (en) | 2005-05-16 | 2006-11-23 | Donnelly Corporation | Vehicle mirror assembly with indicia at reflective element |
US7255451B2 (en) | 2002-09-20 | 2007-08-14 | Donnelly Corporation | Electro-optic mirror cell |
ES2287266T3 (es) | 2001-01-23 | 2007-12-16 | Donnelly Corporation | Sistema de iluminacion de vehiculos mejorado. |
US7581859B2 (en) | 2005-09-14 | 2009-09-01 | Donnelly Corp. | Display device for exterior rearview mirror |
DE10103870B4 (de) * | 2001-01-30 | 2004-02-05 | Daimlerchrysler Ag | Verfahren zur Bilderkennung bei Kraftfahrzeugen |
DE20105340U1 (de) * | 2001-03-26 | 2001-07-26 | Daimler Chrysler Ag | Dimensionale Umfelderfassung |
JP2002314989A (ja) * | 2001-04-10 | 2002-10-25 | Yazaki Corp | 車両用周辺監視装置 |
US6493620B2 (en) | 2001-04-18 | 2002-12-10 | Eaton Corporation | Motor vehicle occupant detection system employing ellipse shape models and bayesian classification |
JP3759429B2 (ja) | 2001-05-23 | 2006-03-22 | 株式会社東芝 | 障害物検出装置及びその方法 |
JP4657495B2 (ja) * | 2001-05-29 | 2011-03-23 | 富士重工業株式会社 | 車両用運転支援装置 |
JP4802397B2 (ja) * | 2001-05-30 | 2011-10-26 | コニカミノルタホールディングス株式会社 | 画像撮影システム、および操作装置 |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
DE10162652A1 (de) * | 2001-12-20 | 2003-07-03 | Bosch Gmbh Robert | Stereo-Kamera-Anordnung in einem Kraftfahrzeug |
JP2003200755A (ja) * | 2001-12-28 | 2003-07-15 | Yazaki Corp | 車両用表示装置 |
US6918674B2 (en) | 2002-05-03 | 2005-07-19 | Donnelly Corporation | Vehicle rearview mirror system |
AU2003237424A1 (en) | 2002-06-06 | 2003-12-22 | Donnelly Corporation | Interior rearview mirror system with compass |
US7329013B2 (en) | 2002-06-06 | 2008-02-12 | Donnelly Corporation | Interior rearview mirror system with compass |
US20060061008A1 (en) | 2004-09-14 | 2006-03-23 | Lee Karner | Mounting assembly for vehicle interior mirror |
DE10227221A1 (de) * | 2002-06-18 | 2004-01-15 | Daimlerchrysler Ag | Verfahren zur Überwachung des Innen- bzw. Außenraums eines Fahrzeugs sowie ein Fahrzeug mit wenigstens einer Rundsichtkamera |
DE10234645B4 (de) * | 2002-07-29 | 2004-07-22 | Daimlerchrysler Ag | Kameraanordnung mit einer spiegelnden Fläche |
KR20050040926A (ko) * | 2002-08-19 | 2005-05-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 운송수단 내에서 영상을 디스플레이하기 위한 디스플레이시스템 |
US10144353B2 (en) | 2002-08-21 | 2018-12-04 | Magna Electronics Inc. | Multi-camera vision system for a vehicle |
WO2004103772A2 (en) | 2003-05-19 | 2004-12-02 | Donnelly Corporation | Mirror assembly for vehicle |
AU2003278863A1 (en) | 2002-09-20 | 2004-04-08 | Donnelly Corporation | Mirror reflective element assembly |
JP3697435B2 (ja) * | 2002-09-20 | 2005-09-21 | 富士重工業株式会社 | 車外監視装置 |
US7310177B2 (en) | 2002-09-20 | 2007-12-18 | Donnelly Corporation | Electro-optic reflective element assembly |
US8013889B1 (en) * | 2002-10-11 | 2011-09-06 | Hong Brian Kwangshik | Peripheral viewing system for a vehicle |
KR100471268B1 (ko) * | 2002-10-28 | 2005-03-10 | 현대자동차주식회사 | 차간거리 측정 방법 |
TWI380080B (en) * | 2003-03-07 | 2012-12-21 | Semiconductor Energy Lab | Liquid crystal display device and method for manufacturing the same |
KR100482598B1 (ko) * | 2003-04-21 | 2005-04-14 | 현대자동차주식회사 | 차간거리 제어방법 및 장치 |
JP3879696B2 (ja) * | 2003-04-25 | 2007-02-14 | 日産自動車株式会社 | 運転支援装置 |
EP1475765A3 (de) * | 2003-05-08 | 2006-05-24 | Robert Bosch Gmbh | Vorrichtung zur Bestimmung einer Durchfahrtsmöglichkeit für ein Fahrzeug |
JP4043416B2 (ja) | 2003-07-30 | 2008-02-06 | オリンパス株式会社 | 安全移動支援装置 |
US7446924B2 (en) | 2003-10-02 | 2008-11-04 | Donnelly Corporation | Mirror reflective element assembly including electronic component |
US7308341B2 (en) | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
DE10349882A1 (de) * | 2003-10-25 | 2005-05-25 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur Abstandsregelung |
JP3925488B2 (ja) * | 2003-11-11 | 2007-06-06 | 日産自動車株式会社 | 車両用画像処理装置 |
JP4332027B2 (ja) * | 2003-12-25 | 2009-09-16 | キャタピラージャパン株式会社 | 表示器制御システム |
JP3880582B2 (ja) * | 2004-02-13 | 2007-02-14 | Necビューテクノロジー株式会社 | 複数のカメラを備えたプロジェクタ |
US20050283062A1 (en) * | 2004-06-22 | 2005-12-22 | Cerner Innovation, Inc. | Computerized method and system for associating a portion of a diagnostic image with an electronic record |
JP4488804B2 (ja) * | 2004-06-23 | 2010-06-23 | 株式会社トプコン | ステレオ画像の関連付け方法及び3次元データ作成装置 |
US8594370B2 (en) | 2004-07-26 | 2013-11-26 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
DE102004040558A1 (de) * | 2004-08-21 | 2006-02-23 | A.D.C. Automotive Distance Control Systems Gmbh | Optisches Objekterkennungssystem |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
JP2006127055A (ja) * | 2004-10-27 | 2006-05-18 | Denso Corp | 車両用情報提示装置 |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
KR100630088B1 (ko) * | 2004-12-28 | 2006-09-27 | 삼성전자주식회사 | 옵티컬 플로우를 이용한 차량 감시 장치 및 방법 |
JP4179285B2 (ja) * | 2005-01-12 | 2008-11-12 | トヨタ自動車株式会社 | 駐車支援装置 |
JP4693561B2 (ja) * | 2005-02-02 | 2011-06-01 | 株式会社オートネットワーク技術研究所 | 車両周辺監視装置 |
JP4020128B2 (ja) * | 2005-04-22 | 2007-12-12 | トヨタ自動車株式会社 | 目標位置設定装置およびそれを備えた駐車支援装置 |
JP4640011B2 (ja) * | 2005-07-19 | 2011-03-02 | 株式会社セガ | 画像処理装置、遠景画像表示方法および遠景画像表示プログラム |
JPWO2007015288A1 (ja) * | 2005-08-01 | 2009-02-12 | 三菱電機株式会社 | 軸ずれ量推定方法及び軸ずれ量推定装置 |
JP4882324B2 (ja) * | 2005-09-20 | 2012-02-22 | トヨタ自動車株式会社 | 車両用画像処理装置 |
US20070088469A1 (en) * | 2005-10-04 | 2007-04-19 | Oshkosh Truck Corporation | Vehicle control system and method |
DE102005052634B4 (de) * | 2005-11-04 | 2021-02-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Fahrerunterstützung vor und/oder bei Durchfahren einer Engstelle |
FR2893173B1 (fr) * | 2005-11-10 | 2008-01-18 | Valeo Vision Sa | Procede d'evaluation, par un vehicule automobile, des caracteristiques d'un element frontal. |
JP2007142765A (ja) * | 2005-11-17 | 2007-06-07 | Auto Network Gijutsu Kenkyusho:Kk | 車両周辺監視装置 |
US10878646B2 (en) | 2005-12-08 | 2020-12-29 | Smartdrive Systems, Inc. | Vehicle event recorder systems |
US20070150138A1 (en) | 2005-12-08 | 2007-06-28 | James Plante | Memory management in event recording systems |
JP5058491B2 (ja) * | 2006-02-09 | 2012-10-24 | 日産自動車株式会社 | 車両用表示装置および車両用映像表示制御方法 |
US8996240B2 (en) | 2006-03-16 | 2015-03-31 | Smartdrive Systems, Inc. | Vehicle event recorders with integrated web server |
US9201842B2 (en) | 2006-03-16 | 2015-12-01 | Smartdrive Systems, Inc. | Vehicle event recorder systems and networks having integrated cellular wireless communications systems |
JP4632987B2 (ja) * | 2006-03-28 | 2011-02-16 | 株式会社パスコ | 道路画像解析装置及び道路画像解析方法 |
US20070233361A1 (en) * | 2006-03-30 | 2007-10-04 | Ford Global Technologies, Llc | Centralized Image Processing For An Automobile With A Navigation System |
US7536457B2 (en) * | 2006-05-08 | 2009-05-19 | Drivecam, Inc. | System and method for wireless delivery of event data |
US7804426B2 (en) * | 2006-05-08 | 2010-09-28 | Drivecam, Inc. | System and method for selective review of event data |
US9836716B2 (en) | 2006-05-09 | 2017-12-05 | Lytx, Inc. | System and method for reducing driving risk with hindsight |
US20070268158A1 (en) * | 2006-05-09 | 2007-11-22 | Drivecam, Inc. | System and Method for Reducing Driving Risk With Insight |
US8314708B2 (en) * | 2006-05-08 | 2012-11-20 | Drivecam, Inc. | System and method for reducing driving risk with foresight |
US7659827B2 (en) * | 2006-05-08 | 2010-02-09 | Drivecam, Inc. | System and method for taking risk out of driving |
US8373567B2 (en) * | 2006-05-08 | 2013-02-12 | Drivecam, Inc. | System and method for identifying non-event profiles |
US20070257782A1 (en) * | 2006-05-08 | 2007-11-08 | Drivecam, Inc. | System and Method for Multi-Event Capture |
US20080043736A1 (en) * | 2006-08-18 | 2008-02-21 | Drivecam, Inc. | Data Transfer System and Method |
US8139109B2 (en) * | 2006-06-19 | 2012-03-20 | Oshkosh Corporation | Vision system for an autonomous vehicle |
US8947531B2 (en) | 2006-06-19 | 2015-02-03 | Oshkosh Corporation | Vehicle diagnostics based on information communicated between vehicles |
EP1892688B1 (de) * | 2006-08-24 | 2010-09-01 | Valeo Vision | Verfahren zur Bestimmung der Durchfahrt eines Fahrzeugs durch eine engen Durchlass |
US8649933B2 (en) | 2006-11-07 | 2014-02-11 | Smartdrive Systems Inc. | Power management systems for automotive video event recorders |
US8989959B2 (en) | 2006-11-07 | 2015-03-24 | Smartdrive Systems, Inc. | Vehicle operator performance history recording, scoring and reporting systems |
US8868288B2 (en) | 2006-11-09 | 2014-10-21 | Smartdrive Systems, Inc. | Vehicle exception event management systems |
JP4454681B2 (ja) * | 2006-12-05 | 2010-04-21 | 富士通株式会社 | 交通状況表示方法、交通状況表示システム、車載装置及びコンピュータプログラム |
US8199975B2 (en) * | 2006-12-12 | 2012-06-12 | Cognex Corporation | System and method for side vision detection of obstacles for vehicles |
DE102006062061B4 (de) * | 2006-12-29 | 2010-06-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera |
EP2122599B1 (de) | 2007-01-25 | 2019-11-13 | Magna Electronics Inc. | Radarerfassungssystem für ein fahrzeug |
JP4914233B2 (ja) * | 2007-01-31 | 2012-04-11 | 富士重工業株式会社 | 車外監視装置 |
JP4748082B2 (ja) * | 2007-02-23 | 2011-08-17 | トヨタ自動車株式会社 | 車両用周辺監視装置及び車両用周辺監視方法 |
JP2008225785A (ja) * | 2007-03-12 | 2008-09-25 | Toyota Motor Corp | 画像認識装置 |
EP2141926A4 (de) * | 2007-04-27 | 2010-08-11 | Honda Motor Co Ltd | Fahrzeugperipherie-überwachungseinrichtung, fahrzeugperipherie-überwachungsprogramm und fahrzeugperipherie-überwachungsverfahren |
US8239092B2 (en) | 2007-05-08 | 2012-08-07 | Smartdrive Systems Inc. | Distributed vehicle event recorder systems having a portable memory data transfer system |
US7914187B2 (en) | 2007-07-12 | 2011-03-29 | Magna Electronics Inc. | Automatic lighting system with adaptive alignment function |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
US8451107B2 (en) | 2007-09-11 | 2013-05-28 | Magna Electronics, Inc. | Imaging system for vehicle |
EP2037408B1 (de) | 2007-09-14 | 2012-03-28 | Saab Ab | Verfahren, Computerprogramm und Vorrichtung zum Bestimmen der Gefahr einer Kollision in der Luft |
US8446470B2 (en) | 2007-10-04 | 2013-05-21 | Magna Electronics, Inc. | Combined RGB and IR imaging sensor |
WO2009077445A1 (de) * | 2007-12-17 | 2009-06-25 | Continental Teves Ag & Co. Ohg | Verfahren und vorrichtung zum optischen erfassen einer fahrzeugumgebung |
JP2009239390A (ja) * | 2008-03-26 | 2009-10-15 | Fujifilm Corp | 複眼撮影装置およびその制御方法並びにプログラム |
US8154418B2 (en) | 2008-03-31 | 2012-04-10 | Magna Mirrors Of America, Inc. | Interior rearview mirror system |
DE102008001409A1 (de) * | 2008-04-28 | 2009-11-05 | Robert Bosch Gmbh | Verfahren zur Bestimmung von freien Bereichen in der, insbesondere für die Fahrzeugführung relevanten Umgebung eines Kraftfahrzeugs |
JP4377439B1 (ja) * | 2008-06-12 | 2009-12-02 | 本田技研工業株式会社 | 車両周辺監視装置 |
WO2009157828A1 (en) * | 2008-06-25 | 2009-12-30 | Autoliv Development Ab | A method of detecting object in the vicinity of a vehicle |
US20100020170A1 (en) | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
US20100076710A1 (en) * | 2008-09-19 | 2010-03-25 | Caterpillar Inc. | Machine sensor calibration system |
US9487144B2 (en) | 2008-10-16 | 2016-11-08 | Magna Mirrors Of America, Inc. | Interior mirror assembly with display |
US8466960B2 (en) * | 2009-02-16 | 2013-06-18 | Ricoh Company, Ltd. | Liquid droplet recognition apparatus, raindrop recognition apparatus, and on-vehicle monitoring apparatus |
US9126525B2 (en) | 2009-02-27 | 2015-09-08 | Magna Electronics Inc. | Alert system for vehicle |
TWI398372B (en) * | 2009-03-11 | 2013-06-11 | Lane departure warning system/device, ldws | |
KR101023275B1 (ko) * | 2009-04-06 | 2011-03-18 | 삼성전기주식회사 | 차량용 카메라 시스템의 캘리브레이션 방법 및 장치, 차량용 카메라 시스템의 각도상 오정렬을 판단하는 방법 및 이를 수행하는 전자 제어 유닛 |
US8781159B2 (en) * | 2009-05-13 | 2014-07-15 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8284988B2 (en) * | 2009-05-13 | 2012-10-09 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8376595B2 (en) | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
JP4858574B2 (ja) * | 2009-05-19 | 2012-01-18 | トヨタ自動車株式会社 | 物体検出装置 |
JP5440903B2 (ja) * | 2009-05-20 | 2014-03-12 | 株式会社リコー | 撮像装置とステレオカメラ装置及び車外監視装置 |
WO2011014497A1 (en) | 2009-07-27 | 2011-02-03 | Magna Electronics Inc. | Vehicular camera with on-board microcontroller |
EP2459416B2 (de) | 2009-07-27 | 2019-12-25 | Magna Electronics Inc. | Parkhilfesystem |
ES2538827T3 (es) | 2009-09-01 | 2015-06-24 | Magna Mirrors Of America, Inc. | Sistema de formación de imágenes y de exhibición para un vehículo |
US20110169957A1 (en) * | 2010-01-14 | 2011-07-14 | Ford Global Technologies, Llc | Vehicle Image Processing Method |
US8508591B2 (en) * | 2010-02-05 | 2013-08-13 | Applied Vision Corporation | System and method for estimating the height of an object using tomosynthesis-like techniques |
US8890955B2 (en) | 2010-02-10 | 2014-11-18 | Magna Mirrors Of America, Inc. | Adaptable wireless vehicle vision system based on wireless communication error |
US20110302078A1 (en) | 2010-06-02 | 2011-12-08 | Bryan Marc Failing | Managing an energy transfer between a vehicle and an energy transfer system |
US9117123B2 (en) | 2010-07-05 | 2015-08-25 | Magna Electronics Inc. | Vehicular rear view camera display system with lifecheck function |
US9959595B2 (en) * | 2010-09-21 | 2018-05-01 | Mobileye Vision Technologies Ltd. | Dense structure from motion |
JP5690539B2 (ja) | 2010-09-28 | 2015-03-25 | 株式会社トプコン | 自動離着陸システム |
US8459619B2 (en) | 2010-10-24 | 2013-06-11 | Oshkosh Corporation | Gas spring control system and method |
WO2012068331A1 (en) | 2010-11-19 | 2012-05-24 | Magna Electronics Inc. | Lane keeping system and lane centering system |
WO2012075250A1 (en) | 2010-12-01 | 2012-06-07 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
WO2012084277A1 (en) * | 2010-12-22 | 2012-06-28 | Thomson Licensing | Apparatus and method for determining a disparity estimate |
JP5618840B2 (ja) | 2011-01-04 | 2014-11-05 | 株式会社トプコン | 飛行体の飛行制御システム |
DE102011002577A1 (de) | 2011-01-12 | 2012-07-12 | 3Vi Gmbh | Fernsteuerungseinrichtung zur Steuerung einer Vorrichtung anhand eines beweglichen Objektes sowie Schnittstellen-Modul zur Kommunikation zwischen Modulen einer derartigen Fernsteuerungseinrichtung oder zwischen einem der Module und einer externen Vorrichtung |
US9085261B2 (en) | 2011-01-26 | 2015-07-21 | Magna Electronics Inc. | Rear vision system with trailer angle detection |
US9194943B2 (en) | 2011-04-12 | 2015-11-24 | Magna Electronics Inc. | Step filter for estimating distance in a time-of-flight ranging system |
US9357208B2 (en) | 2011-04-25 | 2016-05-31 | Magna Electronics Inc. | Method and system for dynamically calibrating vehicular cameras |
US9547795B2 (en) | 2011-04-25 | 2017-01-17 | Magna Electronics Inc. | Image processing method for detecting objects using relative motion |
US9834153B2 (en) | 2011-04-25 | 2017-12-05 | Magna Electronics Inc. | Method and system for dynamically calibrating vehicular cameras |
JP5775354B2 (ja) | 2011-04-28 | 2015-09-09 | 株式会社トプコン | 離着陸ターゲット装置及び自動離着陸システム |
JP5276140B2 (ja) * | 2011-05-19 | 2013-08-28 | 富士重工業株式会社 | 環境認識装置および環境認識方法 |
JP5388392B2 (ja) | 2011-07-01 | 2014-01-15 | エンパイア テクノロジー ディベロップメント エルエルシー | ジェスチャベースのゲームのための安全スキーム |
WO2013016409A1 (en) | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
WO2013019707A1 (en) | 2011-08-01 | 2013-02-07 | Magna Electronics Inc. | Vehicle camera alignment system |
DE102011080702B3 (de) * | 2011-08-09 | 2012-12-13 | 3Vi Gmbh | Objekterfassungsvorrichtung für ein Fahrzeug, Fahrzeug mit einer derartigen Objekterfassungsvorrichtung |
WO2013032045A1 (en) | 2011-08-31 | 2013-03-07 | Empire Technology Development Llc | Position-setup for gesture-based game system |
DE102011113077A1 (de) * | 2011-09-07 | 2013-03-07 | Conti Temic Microelectronic Gmbh | Verfahren zur Bestimmung einer Durchfahrbarkeit eines Objekts für ein Fahrzeug mittels einer 3D-Kamera |
DE102011082475A1 (de) * | 2011-09-12 | 2013-03-14 | Robert Bosch Gmbh | Fahrerassistenzsystem zur Unterstützung eines Fahrers in kollisionsrelevanten Situationen |
US20140218535A1 (en) | 2011-09-21 | 2014-08-07 | Magna Electronics Inc. | Vehicle vision system using image data transmission and power supply via a coaxial cable |
WO2013048994A1 (en) | 2011-09-26 | 2013-04-04 | Magna Electronics, Inc. | Vehicle camera image quality improvement in poor visibility conditions by contrast amplification |
JP5787695B2 (ja) | 2011-09-28 | 2015-09-30 | 株式会社トプコン | 画像取得装置 |
US9146898B2 (en) | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
WO2013074604A2 (en) | 2011-11-15 | 2013-05-23 | Magna Electronics, Inc. | Calibration system and method for vehicular surround vision system |
TWI438729B (zh) | 2011-11-16 | 2014-05-21 | Ind Tech Res Inst | 車道偏移警示方法及系統 |
US10099614B2 (en) | 2011-11-28 | 2018-10-16 | Magna Electronics Inc. | Vision system for vehicle |
KR101340014B1 (ko) * | 2011-12-09 | 2013-12-10 | 에스엘 주식회사 | 위치 정보 제공 장치 및 방법 |
WO2013086249A2 (en) | 2011-12-09 | 2013-06-13 | Magna Electronics, Inc. | Vehicle vision system with customized display |
KR101438876B1 (ko) * | 2011-12-22 | 2014-09-05 | 현대자동차주식회사 | 차량용 협로주행 안전 제공 장치 및 방법 |
US10457209B2 (en) | 2012-02-22 | 2019-10-29 | Magna Electronics Inc. | Vehicle vision system with multi-paned view |
WO2013126715A2 (en) | 2012-02-22 | 2013-08-29 | Magna Electronics, Inc. | Vehicle camera system with image manipulation |
US9269263B2 (en) * | 2012-02-24 | 2016-02-23 | Magna Electronics Inc. | Vehicle top clearance alert system |
WO2013126071A1 (en) * | 2012-02-24 | 2013-08-29 | Empire Technology Development Llc | Safety scheme for gesture-based game system |
JP5982134B2 (ja) * | 2012-02-29 | 2016-08-31 | 富士通テン株式会社 | レーダ装置、および、信号処理方法 |
US8694224B2 (en) | 2012-03-01 | 2014-04-08 | Magna Electronics Inc. | Vehicle yaw rate correction |
JP6182866B2 (ja) * | 2012-03-21 | 2017-08-23 | 株式会社リコー | 校正装置、距離計測装置及び車両 |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
US8824733B2 (en) | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
US8768007B2 (en) | 2012-03-26 | 2014-07-01 | Tk Holdings Inc. | Method of filtering an image |
US9751465B2 (en) | 2012-04-16 | 2017-09-05 | Magna Electronics Inc. | Vehicle vision system with reduced image color data processing by use of dithering |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
DE102012012501B4 (de) * | 2012-06-21 | 2019-10-24 | Volkswagen Aktiengesellschaft | Kamerasystem für ein Kraftfahrzeug |
CN104508727B (zh) * | 2012-07-27 | 2016-09-21 | 日产自动车株式会社 | 三维物体检测装置和三维物体检测方法 |
IN2015KN00339A (de) * | 2012-07-27 | 2015-07-10 | Nissan Motor | |
US9728228B2 (en) | 2012-08-10 | 2017-08-08 | Smartdrive Systems, Inc. | Vehicle event playback apparatus and methods |
US9340227B2 (en) | 2012-08-14 | 2016-05-17 | Magna Electronics Inc. | Vehicle lane keep assist system |
DE102013217430A1 (de) | 2012-09-04 | 2014-03-06 | Magna Electronics, Inc. | Fahrerassistenzsystem für ein Kraftfahrzeug |
US9558409B2 (en) | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
US9446713B2 (en) | 2012-09-26 | 2016-09-20 | Magna Electronics Inc. | Trailer angle detection system |
US9723272B2 (en) | 2012-10-05 | 2017-08-01 | Magna Electronics Inc. | Multi-camera image stitching calibration system |
WO2014070448A1 (en) | 2012-10-31 | 2014-05-08 | Tk Holdings, Inc. | Vehicular path sensing system and method |
US9090234B2 (en) | 2012-11-19 | 2015-07-28 | Magna Electronics Inc. | Braking control system for vehicle |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US10025994B2 (en) | 2012-12-04 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system utilizing corner detection |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
DE102012112164A1 (de) * | 2012-12-12 | 2014-06-12 | Continental Teves Ag & Co. Ohg | Videobasierte erkennung von hindernissen auf einer fahrbahn |
US20140218529A1 (en) | 2013-02-04 | 2014-08-07 | Magna Electronics Inc. | Vehicle data recording system |
US9092986B2 (en) | 2013-02-04 | 2015-07-28 | Magna Electronics Inc. | Vehicular vision system |
US9667947B2 (en) * | 2013-02-25 | 2017-05-30 | The United States of America represented by the Secretary of the Air Force | Stereoscopic 3-D presentation for air traffic control digital radar displays |
US10179543B2 (en) | 2013-02-27 | 2019-01-15 | Magna Electronics Inc. | Multi-camera dynamic top view vision system |
US9688200B2 (en) | 2013-03-04 | 2017-06-27 | Magna Electronics Inc. | Calibration system and method for multi-camera vision system |
WO2014152470A2 (en) | 2013-03-15 | 2014-09-25 | Tk Holdings, Inc. | Path sensing using structured lighting |
US10027930B2 (en) | 2013-03-29 | 2018-07-17 | Magna Electronics Inc. | Spectral filtering for vehicular driver assistance systems |
US9327693B2 (en) | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
US10232797B2 (en) | 2013-04-29 | 2019-03-19 | Magna Electronics Inc. | Rear vision system for vehicle with dual purpose signal lines |
US9508014B2 (en) | 2013-05-06 | 2016-11-29 | Magna Electronics Inc. | Vehicular multi-camera vision system |
US9280202B2 (en) | 2013-05-10 | 2016-03-08 | Magna Electronics Inc. | Vehicle vision system |
US9205776B2 (en) | 2013-05-21 | 2015-12-08 | Magna Electronics Inc. | Vehicle vision system using kinematic model of vehicle motion |
US9563951B2 (en) | 2013-05-21 | 2017-02-07 | Magna Electronics Inc. | Vehicle vision system with targetless camera calibration |
US10567705B2 (en) | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
US9260095B2 (en) | 2013-06-19 | 2016-02-16 | Magna Electronics Inc. | Vehicle vision system with collision mitigation |
US20140375476A1 (en) | 2013-06-24 | 2014-12-25 | Magna Electronics Inc. | Vehicle alert system |
US10755110B2 (en) | 2013-06-28 | 2020-08-25 | Magna Electronics Inc. | Trailering assist system for vehicle |
US9619716B2 (en) | 2013-08-12 | 2017-04-11 | Magna Electronics Inc. | Vehicle vision system with image classification |
US10326969B2 (en) | 2013-08-12 | 2019-06-18 | Magna Electronics Inc. | Vehicle vision system with reduction of temporal noise in images |
JP2015060053A (ja) * | 2013-09-18 | 2015-03-30 | 株式会社東芝 | 固体撮像装置、制御装置及び制御プログラム |
US9501878B2 (en) | 2013-10-16 | 2016-11-22 | Smartdrive Systems, Inc. | Vehicle event playback apparatus and methods |
US9610955B2 (en) | 2013-11-11 | 2017-04-04 | Smartdrive Systems, Inc. | Vehicle fuel consumption monitor and feedback systems |
JP6429466B2 (ja) * | 2013-11-19 | 2018-11-28 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
US10311595B2 (en) | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
US9499139B2 (en) | 2013-12-05 | 2016-11-22 | Magna Electronics Inc. | Vehicle monitoring system |
US9988047B2 (en) | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
US10160382B2 (en) | 2014-02-04 | 2018-12-25 | Magna Electronics Inc. | Trailer backup assist system |
US8892310B1 (en) | 2014-02-21 | 2014-11-18 | Smartdrive Systems, Inc. | System and method to detect execution of driving maneuvers |
US9623878B2 (en) | 2014-04-02 | 2017-04-18 | Magna Electronics Inc. | Personalized driver assistance system for vehicle |
US9487235B2 (en) | 2014-04-10 | 2016-11-08 | Magna Electronics Inc. | Vehicle control system with adaptive wheel angle correction |
US10328932B2 (en) | 2014-06-02 | 2019-06-25 | Magna Electronics Inc. | Parking assist system with annotated map generation |
JP2016019009A (ja) * | 2014-07-04 | 2016-02-01 | 日立オートモティブシステムズ株式会社 | 情報処理装置 |
US9663127B2 (en) | 2014-10-28 | 2017-05-30 | Smartdrive Systems, Inc. | Rail vehicle event detection and recording system |
US11069257B2 (en) | 2014-11-13 | 2021-07-20 | Smartdrive Systems, Inc. | System and method for detecting a vehicle event and generating review criteria |
US9916660B2 (en) | 2015-01-16 | 2018-03-13 | Magna Electronics Inc. | Vehicle vision system with calibration algorithm |
US10286855B2 (en) | 2015-03-23 | 2019-05-14 | Magna Electronics Inc. | Vehicle vision system with video compression |
US9679420B2 (en) | 2015-04-01 | 2017-06-13 | Smartdrive Systems, Inc. | Vehicle event recording system and method |
US10946799B2 (en) | 2015-04-21 | 2021-03-16 | Magna Electronics Inc. | Vehicle vision system with overlay calibration |
US10819943B2 (en) | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
WO2016208318A1 (ja) * | 2015-06-24 | 2016-12-29 | コニカミノルタ株式会社 | 距離画像処理装置、距離画像処理方法、距離画像処理プログラムおよび記録媒体 |
US10214206B2 (en) | 2015-07-13 | 2019-02-26 | Magna Electronics Inc. | Parking assist system for vehicle |
US10078789B2 (en) | 2015-07-17 | 2018-09-18 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
US10086870B2 (en) | 2015-08-18 | 2018-10-02 | Magna Electronics Inc. | Trailer parking assist system for vehicle |
JP6530685B2 (ja) * | 2015-09-15 | 2019-06-12 | 株式会社デンソーアイティーラボラトリ | 物体検出装置、物体検出システム、物体検出方法および物体検出プログラム |
US10875403B2 (en) | 2015-10-27 | 2020-12-29 | Magna Electronics Inc. | Vehicle vision system with enhanced night vision |
US11277558B2 (en) | 2016-02-01 | 2022-03-15 | Magna Electronics Inc. | Vehicle vision system with master-slave camera configuration |
US11433809B2 (en) | 2016-02-02 | 2022-09-06 | Magna Electronics Inc. | Vehicle vision system with smart camera video output |
US10160437B2 (en) | 2016-02-29 | 2018-12-25 | Magna Electronics Inc. | Vehicle control system with reverse assist |
US20170253237A1 (en) | 2016-03-02 | 2017-09-07 | Magna Electronics Inc. | Vehicle vision system with automatic parking function |
US10132971B2 (en) | 2016-03-04 | 2018-11-20 | Magna Electronics Inc. | Vehicle camera with multiple spectral filters |
US10055651B2 (en) | 2016-03-08 | 2018-08-21 | Magna Electronics Inc. | Vehicle vision system with enhanced lane tracking |
US10282634B2 (en) * | 2016-03-11 | 2019-05-07 | Panasonic Intellectual Property Corporation Of America | Image processing method, image processing apparatus, and recording medium for reducing variation in quality of training data items |
CN107180067B (zh) * | 2016-03-11 | 2022-05-13 | 松下电器(美国)知识产权公司 | 图像处理方法、图像处理装置及记录介质 |
JP6950170B2 (ja) * | 2016-11-30 | 2021-10-13 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム |
KR102406502B1 (ko) | 2016-12-14 | 2022-06-10 | 현대자동차주식회사 | 차량의 협로 주행 안내 장치 및 방법 |
CN106886217B (zh) * | 2017-02-24 | 2020-09-08 | 深圳中智卫安机器人技术有限公司 | 自主导航控制方法和装置 |
JP6548312B2 (ja) * | 2017-09-19 | 2019-07-24 | 株式会社Subaru | 画像処理装置 |
CN107741231B (zh) * | 2017-10-11 | 2020-11-27 | 福州大学 | 一种基于机器视觉的多运动目标快速测距方法 |
US10661725B2 (en) | 2017-11-10 | 2020-05-26 | Denso Corporation | Camera module |
US11181816B2 (en) | 2017-11-10 | 2021-11-23 | Denso Corporation | Windshield-mounted camera module |
US10406995B2 (en) * | 2017-11-10 | 2019-09-10 | Denso Corporation | Camera module |
US10627606B2 (en) | 2017-11-10 | 2020-04-21 | Denso Corporation | Camera module |
US10232800B1 (en) | 2017-11-10 | 2019-03-19 | Denson Corporation | Camera module |
US10534253B2 (en) | 2017-11-10 | 2020-01-14 | Denso Corporation | Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle |
TWI656518B (zh) * | 2017-12-05 | 2019-04-11 | 財團法人工業技術研究院 | 停車格辨識系統及其方法 |
DE102018102047A1 (de) | 2018-01-30 | 2019-08-01 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem |
JP2020051942A (ja) | 2018-09-27 | 2020-04-02 | 株式会社Subaru | 車両の走行環境検出装置及び走行制御システム |
US11186273B2 (en) | 2018-10-30 | 2021-11-30 | Toyota Motor North America, Inc. | Vehicle data processing systems and methods using one or more local processors |
JP7216526B2 (ja) * | 2018-11-21 | 2023-02-01 | 株式会社Subaru | 車外環境認識装置および車外環境認識方法 |
US11535257B2 (en) * | 2020-05-22 | 2022-12-27 | Robert Bosch Gmbh | Lane localization system and method |
KR20220091670A (ko) * | 2020-12-23 | 2022-07-01 | 현대자동차주식회사 | 차량 및 그 제어방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4601053A (en) * | 1983-11-21 | 1986-07-15 | Grumman Aerospace Corporation | Automatic TV ranging system |
US4916302A (en) * | 1985-02-09 | 1990-04-10 | Canon Kabushiki Kaisha | Apparatus for and method of measuring distances to objects present in a plurality of directions |
DE4308776A1 (de) * | 1992-03-23 | 1993-09-30 | Fuji Heavy Ind Ltd | System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5596475A (en) * | 1979-01-19 | 1980-07-22 | Nissan Motor Co Ltd | Obstacle detector for vehicle |
US4257703A (en) * | 1979-03-15 | 1981-03-24 | The Bendix Corporation | Collision avoidance using optical pattern growth rate |
JPS59198377A (ja) * | 1983-04-27 | 1984-11-10 | Nippon Soken Inc | 車両用障害物検知装置 |
US4851901A (en) * | 1986-09-03 | 1989-07-25 | Kabushiki Kaisha Toshiba | Stereoscopic television apparatus |
JPS63195045A (ja) * | 1987-02-09 | 1988-08-12 | Alpine Electron Inc | 車載用障害物接近警告表示装置 |
JP2658056B2 (ja) * | 1987-06-17 | 1997-09-30 | 日産自動車株式会社 | 自律走行車両制御装置 |
US4942539A (en) * | 1988-12-21 | 1990-07-17 | Gmf Robotics Corporation | Method and system for automatically determining the position and orientation of an object in 3-D space |
CA2082660C (en) * | 1990-04-11 | 1997-12-02 | Scott Juds | Method of determining optimal detection beam locations using reflective feature mapping |
JPH0690760B2 (ja) * | 1991-01-23 | 1994-11-14 | 株式会社カンセイ | 先行車両位置検出装置 |
JPH04331311A (ja) * | 1991-01-24 | 1992-11-19 | Mitsubishi Electric Corp | 車間距離検出装置 |
JPH05265537A (ja) * | 1991-04-03 | 1993-10-15 | Hitachi Metals Ltd | ロボットの自動教示法 |
JP3167752B2 (ja) * | 1991-10-22 | 2001-05-21 | 富士重工業株式会社 | 車輌用距離検出装置 |
US5461357A (en) * | 1992-01-29 | 1995-10-24 | Mazda Motor Corporation | Obstacle detection device for vehicle |
US5283640A (en) * | 1992-01-31 | 1994-02-01 | Tilton Homer B | Three dimensional television camera system based on a spatial depth signal and receiver system therefor |
JPH072314Y2 (ja) * | 1992-02-28 | 1995-01-25 | 株式会社ヨシコー | 自動車用コーナポール |
-
1993
- 1993-12-27 JP JP33019193A patent/JP3522317B2/ja not_active Expired - Lifetime
-
1994
- 1994-12-23 DE DE4446452A patent/DE4446452B4/de not_active Expired - Lifetime
- 1994-12-23 GB GB9426131A patent/GB2285719B/en not_active Expired - Fee Related
- 1994-12-27 US US08/364,104 patent/US5530420A/en not_active Ceased
-
1998
- 1998-06-24 US US09/102,880 patent/USRE37610E1/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4601053A (en) * | 1983-11-21 | 1986-07-15 | Grumman Aerospace Corporation | Automatic TV ranging system |
US4916302A (en) * | 1985-02-09 | 1990-04-10 | Canon Kabushiki Kaisha | Apparatus for and method of measuring distances to objects present in a plurality of directions |
DE4308776A1 (de) * | 1992-03-23 | 1993-09-30 | Fuji Heavy Ind Ltd | System zur Überwachung des fahrzeugexternen Zustands unter Verwendung eines durch mehrere Fernsehkameras aufgenommenen Bildes |
Non-Patent Citations (1)
Title |
---|
JP 01026913 A. In: Patents Abstr. of Japan, P-872, May 17, 1989, Vol. 13/No. 210 * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19755963B4 (de) * | 1996-12-16 | 2009-06-18 | Nissan Motor Co., Ltd., Yokohama-shi | Fahrzeuggeschwindigkeitssteuerungssystem |
US10683008B2 (en) | 2002-05-03 | 2020-06-16 | Magna Electronics Inc. | Vehicular driving assist system using forward-viewing camera |
US9834216B2 (en) | 2002-05-03 | 2017-12-05 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US11203340B2 (en) | 2002-05-03 | 2021-12-21 | Magna Electronics Inc. | Vehicular vision system using side-viewing camera |
US10118618B2 (en) | 2002-05-03 | 2018-11-06 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US10351135B2 (en) | 2002-05-03 | 2019-07-16 | Magna Electronics Inc. | Vehicular control system using cameras and radar sensor |
US9643605B2 (en) | 2002-05-03 | 2017-05-09 | Magna Electronics Inc. | Vision system for vehicle |
DE10319700A1 (de) * | 2003-05-02 | 2004-11-18 | Ibeo Automobile Sensor Gmbh | Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand |
DE10341128A1 (de) * | 2003-09-06 | 2005-03-31 | Daimlerchrysler Ag | Vorrichtung und Verfahren zur Erfassung eines momentanen Abstandes eines Kraftfahrzeugs von einem Hindernis |
DE10351915A1 (de) * | 2003-11-07 | 2005-06-09 | Volkswagen Ag | Überwachungsvorrichtung für ein Kraftfahrzeug |
DE102004009924A1 (de) * | 2004-02-23 | 2005-09-01 | Valeo Schalter Und Sensoren Gmbh | Verfahren und Warnvorrichtung zum grafischen Aufbereiten eines Bildes einer Kamera |
US10462426B2 (en) | 2004-04-15 | 2019-10-29 | Magna Electronics Inc. | Vehicular control system |
US10735695B2 (en) | 2004-04-15 | 2020-08-04 | Magna Electronics Inc. | Vehicular control system with traffic lane detection |
US9736435B2 (en) | 2004-04-15 | 2017-08-15 | Magna Electronics Inc. | Vision system for vehicle |
US9948904B2 (en) | 2004-04-15 | 2018-04-17 | Magna Electronics Inc. | Vision system for vehicle |
US10015452B1 (en) | 2004-04-15 | 2018-07-03 | Magna Electronics Inc. | Vehicular control system |
US11847836B2 (en) | 2004-04-15 | 2023-12-19 | Magna Electronics Inc. | Vehicular control system with road curvature determination |
US9609289B2 (en) | 2004-04-15 | 2017-03-28 | Magna Electronics Inc. | Vision system for vehicle |
US11503253B2 (en) | 2004-04-15 | 2022-11-15 | Magna Electronics Inc. | Vehicular control system with traffic lane detection |
US10187615B1 (en) | 2004-04-15 | 2019-01-22 | Magna Electronics Inc. | Vehicular control system |
US10110860B1 (en) | 2004-04-15 | 2018-10-23 | Magna Electronics Inc. | Vehicular control system |
US10306190B1 (en) | 2004-04-15 | 2019-05-28 | Magna Electronics Inc. | Vehicular control system |
DE102004029985A1 (de) * | 2004-06-21 | 2006-01-19 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
DE102004029985B4 (de) * | 2004-06-21 | 2017-08-31 | Harman Becker Automotive Systems Gmbh | Verfahren und Vorrichtung zum Ausgeben eines Anfahrsignals |
US11148583B2 (en) | 2006-08-11 | 2021-10-19 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US10787116B2 (en) | 2006-08-11 | 2020-09-29 | Magna Electronics Inc. | Adaptive forward lighting system for vehicle comprising a control that adjusts the headlamp beam in response to processing of image data captured by a camera |
US11396257B2 (en) | 2006-08-11 | 2022-07-26 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US11623559B2 (en) | 2006-08-11 | 2023-04-11 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
US10071676B2 (en) | 2006-08-11 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
US11951900B2 (en) | 2006-08-11 | 2024-04-09 | Magna Electronics Inc. | Vehicular forward viewing image capture system |
WO2008155006A1 (de) * | 2007-06-16 | 2008-12-24 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur unterstützung eines fahrers eines kraftfahrzeugs bei der durchfahrt des kraftfahrzeugs durch eine engstelle und/oder zum einhalten eines sicherheitsabstandes zum vorderfahrzeug |
US10214143B2 (en) | 2007-06-16 | 2019-02-26 | Bayerische Motoren Werke Aktiengesellschaft | Method for assisting a motor vehicle driver when driving through a narrow passage and/or for maintaining a safe distance from a vehicle in front |
US8994520B2 (en) | 2010-09-15 | 2015-03-31 | Continental Teves Ag & Co. Ohg | Visual driver information and warning system for a driver of a motor vehicle |
US10144441B2 (en) | 2014-11-10 | 2018-12-04 | Bombardier Transportation Gmbh | Operation of a rail vehicle comprising an image generation system |
EP3431361A3 (de) * | 2014-11-10 | 2019-06-12 | Bombardier Transportation GmbH | Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem |
EP3431361A2 (de) | 2014-11-10 | 2019-01-23 | Bombardier Transportation GmbH | Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem |
WO2016075138A1 (de) * | 2014-11-10 | 2016-05-19 | Bombardier Transportation Gmbh | Betrieb eines schienenfahrzeugs mit einem bilderzeugungssystem |
Also Published As
Publication number | Publication date |
---|---|
GB2285719A (en) | 1995-07-19 |
GB2285719B (en) | 1998-07-01 |
GB9426131D0 (en) | 1995-02-22 |
US5530420A (en) | 1996-06-25 |
JP3522317B2 (ja) | 2004-04-26 |
DE4446452B4 (de) | 2006-11-16 |
USRE37610E1 (en) | 2002-03-26 |
JPH07192199A (ja) | 1995-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4446452B4 (de) | Fahrleitvorrichtung und Fahrleitverfahren für ein Fahrzeug | |
DE4308776C2 (de) | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs | |
DE69937699T2 (de) | Vorrichtung zum Überwachen der Umgebung eines Fahrzeuges | |
DE60308782T2 (de) | Vorrichtung und Methode zur Hinderniserkennung | |
DE4235619C2 (de) | Entfernungsbestimmungseinrichtung für Automobile | |
DE102014116140B4 (de) | Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug | |
DE60030640T2 (de) | Bildverarbeitungsvorrichtung | |
DE4410064C2 (de) | Verfahren und Vorrichtung zur Abstandserkennung | |
DE112018002247B4 (de) | Hindernisabtastvorrichtung | |
DE102007002419B4 (de) | Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm | |
DE602004011164T2 (de) | Vorrichtung und Methode zur Anzeige von Informationen | |
DE60207655T2 (de) | Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung | |
DE102009005861B4 (de) | Fahrzeugumgebungs-Erkennungssystem | |
DE69932021T2 (de) | Dreidimensionales Darstellungssystem mit einer einzelnen Kamera für Fahrzeuge | |
EP2396746A2 (de) | Verfahren zur objektdetektion | |
DE102014115399B4 (de) | Vorrichtung und Verfahren zur Einparkhilfe | |
DE102015203016B4 (de) | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld | |
DE102010012262A1 (de) | Bildverarbeitungsvorrichtung | |
DE60217589T2 (de) | Vorrichtung und Verfahren zur Detektion von weissen Linien | |
DE102004057188A1 (de) | Fahrzeug-Fahrunterstützungsvorrichtung | |
DE10296593T5 (de) | Fahrunterstützungsvorrichtung | |
WO2013029722A2 (de) | Verfahren zur umgebungsrepräsentation | |
DE112012002885T5 (de) | Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung | |
DE112012003685T5 (de) | Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren | |
CN103080976A (zh) | 三维物体检测装置和三维物体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8128 | New person/name/address of the agent |
Representative=s name: PATENTANWAELTE REICHEL UND REICHEL, 60322 FRANKFUR |
|
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: 2K PATENTANWAELTE BLASBERG KEWITZ & REICHEL, PARTN |
|
R071 | Expiry of right | ||
R071 | Expiry of right |