DE102007037647A1 - Einbruchsicherungssystem mit Stereokameraüberwachung - Google Patents

Einbruchsicherungssystem mit Stereokameraüberwachung Download PDF

Info

Publication number
DE102007037647A1
DE102007037647A1 DE102007037647A DE102007037647A DE102007037647A1 DE 102007037647 A1 DE102007037647 A1 DE 102007037647A1 DE 102007037647 A DE102007037647 A DE 102007037647A DE 102007037647 A DE102007037647 A DE 102007037647A DE 102007037647 A1 DE102007037647 A1 DE 102007037647A1
Authority
DE
Germany
Prior art keywords
images
image
filtered
background image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102007037647A
Other languages
English (en)
Other versions
DE102007037647B4 (de
Inventor
Chris Hermosa Beach Hassapis
Keith H. Los Altos Nishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Systems Corp
Original Assignee
Northrop Grumman Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Corp filed Critical Northrop Grumman Corp
Publication of DE102007037647A1 publication Critical patent/DE102007037647A1/de
Application granted granted Critical
Publication of DE102007037647B4 publication Critical patent/DE102007037647B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Abstract

Ein System und ein Verfahren für ein Einbruchsicherungssystem werden bereitgestellt. Das Einbruchsicherungssystem weist eine erste Kamera auf, die zur Erfassung erster visueller Bilder eines überwachten Bereichs konfiguriert ist, und eine zweite Kamera, die zur Erfassung zweiter visueller Bilder des überwachten Bereichs konfiguriert ist. Das Einbruchsicherungssystem weist außerdem ein Detektionsgerät auf, das zum Vergleichen der ersten Bilder mit einem Hintergrundbild des überwachten Bereichs konfiguriert ist. Das Detektionsgerät kann Unterschiede zwischen den ersten Bildern und dem Hintergrundbild als einen potentiellen Eindringling markieren. Das Einbruchsicherungssystem weist ferner ein Verfolgungsgerät auf, das zur Auswertung jedes der ersten Bilder relativ zu jedem der zweiten Bilder konfiguriert ist, um dreidimensionale zum potentiellen Eindringling gehörige Kennzeichen zu bestimmen.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft allgemein Einbruchsicherungssysteme und insbesondere ein Einbruchsicherungssystem mit Stereokameraüberwachung.
  • Hintergrund
  • In der modernen Gesellschaft und im Verlauf der überlieferten Geschichte gibt und gab es stets einen Bedarf an Sicherheitsmaßnahmen. Solche Maßnahmen dienen der Verhinderung von Diebstahl, von unberechtigtem Zugang zu sensiblen Materialien und Bereichen und werden in vielfältigen anderen Anwendungen eingesetzt. Eine derartige übliche Sicherheitsmaßnahme betrifft Einbruchsicherungssysteme. Typischerweise enthalten Einbruchsicherungssysteme eine Videoüberwachung, die die Überwachung von Videoeinspeisungen enthält, die von einer oder mehreren Videokameras erfasst werden, die sich am Umfang einer zu schützenden Einrichtung befinden. Die Überwachung der Videoeinspeisungen erfolgt typischerweise durch eine Person wie Sicherheitspersonal oder durch die Polizei. Da jedoch potentielle Bedrohungen der Sicherheit isolierte Ereignisse während langer, sonst ereignisloser Zeitspannen sind, kann Langeweile ein erhebliches Problem bedeuten, was in einem Nachlassen der Aufmerksamkeit resultiert.
  • Um das Problem der Langeweile zu überwinden, sind etliche automatisierte Einbruchsicherungssystems entwickelt worden. Solche automatisierten Systeme können verschiedene Computer-Bildalgorithmen enthalten, die die menschliche Überwachung unterstützen. Typischerweise wird ein Änderungsdetektionsalgorithmus verwendet, um Zonen innerhalb des überwachten Bereichs zu identifizieren, bei denen eine sorgfältigere Überprüfung durch die Überwachungsperson angeraten sein dürfte. Solche Systeme können jedoch äußerst anfällig für die Registrierung falscher positiver Ergebnisse sein, wie sie aus Änderungen in der Umgebung resultieren, z. B. Änderungen im Hintergrund, durch Wind bewegtes Buschwerk, Kameravibrationen, Helligkeitsänderungen durch Wolkenwanderung und sich bewegende Lichtstrahlen während der Nacht. Die daraus resultierende hohe Rate falscher positiver Ergebnisse kann sogar qualifiziertestes Sicherheitspersonal ermüden. Um die falschen positiven Bedingungen auszuschalten, kann ein Bediener bei manchen Systemen Nullzonen ein richten, in denen Aktivitäten den Alarm nicht auslösen können. Eine derartige Lösung kann jedoch die Gelegenheit für falsche negative Ergebnisse bieten, was in Sicherheitslücken resultiert.
  • Abgesehen von den sich aus Langeweile ergebenden Problemen können typische automatisierte Einbruchsicherungssysteme mit einigen weiteren Nachteilen behaftet sein. Einbruchsicherungssysteme auf Kamerabasis enthalten z. B. typischerweise eine in großer Höhe angebrachte Kamera, die nach unten gerichtet ist. Die Position des Eindringlings auf dem Boden kann so nur innerhalb des Sichtfeldes der Kamera bestimmt werden. Eine derartige Anordnung kann jedoch schwierig zu installieren und zu warten und durch die erforderliche Spezialausrüstung und das Zubehör teuer sein. Außerdem haben solche Systeme ein begrenztes Sichtfeld. Ein Eindringling kann deshalb die Systeme entdecken, bevor er entdeckt wird, und hat dadurch die Möglichkeit, tote Winkel auszunützen oder andere Gegenmaßnahmen zu ersinnen, um das automatisierte Einbruchsicherungssystem zu "überlisten".
  • Zusammenfassung
  • Eine Ausführungsform der vorliegenden Erfindung enthält ein Einbruchsicherungssystem. Das Einbruchsicherungssystem weist eine erste Kamera auf, die so konfiguriert ist, dass sie erste Bilder eines überwachten Bereichs erfasst, und eine zweite Kamera, die so konfiguriert ist, dass sie zweite Bilder eines überwachten Bereichs erfasst. Das Einbruchsicherungssystem weist außerdem ein Detektionsgerät auf, das zum Vergleichen der ersten Bilder mit einem Hintergrundbild des überwachten Bereichs konfiguriert ist. Das Detektionsgerät kann Unterschiede zwischen den ersten Bildern und dem Hintergrundbild als potentiellen Eindringling markieren. Das Einbruchsicherungssystem weist außerdem ein Verfolgungsgerät auf, das zur Auswertung jedes der ersten Bilder relativ zu jedem der zweiten Bilder konfiguriert ist, um dreidimensionale zum potentiellen Eindringling gehörige Kennzeichen zu bestimmen.
  • Eine weitere Ausführungsform der vorliegenden Erfindung enthält ein Verfahren zur Detektion von Eindringlingen in einem überwachten Bereich. Das Verfahren weist die Erfassung erster Bilder des überwachten Bereichs aus einer ersten Kamera, die Erfassung zweiter Bilder des überwachten Bereichs aus einer zweiten Kamera und die Erzeugung eines Hintergrundbildes des überwachten Bereichs auf. Das Verfahren weist außerdem die Korrelierung erster zu den ersten Bildern gehöriger Bildpunkte mit zweiten zum Hintergrundbild gehörigen Bildpunkten auf, so dass die ersten Bildpunkte auf die zweiten Bildpunkte waagrecht und senkrecht ausgerichtet werden. Das Verfahren weist ferner den Vergleich der ersten Bilder mit dem Hintergrundbild des überwachten Bereichs auf, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen. Des weiteren weist das Verfahren die Bestimmung dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis eines Relativvergleichs der ersten und zweiten Bilder sowie die Aktivierung einer Meldeeinrichtung auf, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen vorgegebenen Schwellenwert überschreiten.
  • Eine weitere Ausführungsform der vorliegenden Erfindung enthält ein Einbruchsicherungssystem. Das Einbruchsicherungssystem weist Mittel zur gleichzeitigen Erfassung erster und zweiter Bilder eines überwachten Bereichs auf. Das Einbruchsicherungssystem weist außerdem Mittel zur kontinuierlichen Erzeugung eines Hintergrundbildes des überwachten Bereichs auf. Weiterhin weist das Einbruchsicherungssystem auch Mittel zum Erkennen eines potentiellen Eindringlings auf Basis von Unterschieden zwischen den ersten Bildern und dem Hintergrundbild auf. Das Einbruchsicherungssystem weist außerdem Mittel zur Bestimmung dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis der ersten und zweiten Bilder auf sowie Mittel zur Aktivierung einer Meldeeinrichtung auf Basis der dreidimensionalen Kennzeichen des potentiellen Eindringlings auf.
  • Kurzbeschreibung der Zeichnungen
  • 1 zeigt ein Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung.
  • 2 zeigt ein Beispiel eines Hintergrundbildgenerators gemäß einem Aspekt der Erfindung.
  • 3 zeigt ein Beispiel eines Kamerabildes und gefilterter Bilder des Kamerabildes gemäß einem Aspekt der Erfindung.
  • 4 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung.
  • 5 zeigt ein Beispiel eines Bildkorrelators gemäß einem Aspekt der Erfindung.
  • 6 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung.
  • 7 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung.
  • 8 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung.
  • 9 zeigt ein Verfahren zur Detektion von Eindringlingen in einem überwachten Bereich gemäß einem Aspekt der Erfindung.
  • Detaillierte Beschreibung
  • Die vorliegende Erfindung betrifft allgemein Einbruchsicherungssysteme und insbesondere ein Einbruchsicherungssystem mit Stereokameraüberwachung. Ein Paar Stereokameras erfassen jeweils gleichzeitige Bilder des überwachten Bereichs. Die erfassten Bilder einer oder beider Kameras können mit einem Hintergrundbild verglichen werden. Das Hintergrundbild kann so von einer der Kameras erzeugt werden, oder die Bilder können mit getrennten Hintergrundbildern verglichen werden. Das Hintergrundbild kann ständig auf Basis jedes der erfassten Bilder aktualisiert werden, um kleinste Änderungen im überwachten Umgebungsbereich langsam zu berücksichtigen. Außerdem kann das Hintergrundbild mit jedem der erfassten Bilder korreliert werden, so dass die Bildpunkte jedes der erfassten Bilder und des Hintergrundbildes waagrecht und senkrecht aufeinander ausgerichtet werden können.
  • Bei Erkennen eines Unterschieds zwischen den erfassten Bildern und dem Hintergrundbild können die sich unterscheidenden Bildpunkte als ein potentieller Eindringling umrissen werden. Die erfassten Bilder jeder der Kameras können korreliert werden, um eine Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings im erfassten Bild von einer Kamera gegenüber der anderen zu bestimmen. Mit der Bestimmung der Parallaxenverschiebung können Standort, Größe und Bewegung des potentiellen Eindringlings dreidimensional ermittelt werden. Standort, Größe und/oder Bewegung des potentiellen Eindringlings können mit mindestens einem vorgegebenen Schwellwert verglichen werden, und eine Meldeeinrichtung kann einen akustischen Alarm abgeben, wenn der potentielle Eindringling den vorgegebenen Schwellenwert überschreitet.
  • 1 zeigt ein Beispiel eines Einbruchsicherungssystems 10 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem 10 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe 12 mit einer ersten Kamera 14 und einer zweiten Kamera 16. Die erste Kamera 14 und die zweite Kamera 16 können Digitalkameras sein. Alternativ können die erste Kamera 14 und die zweite Kamera 16 analoge Ka meras sein, so dass die von der ersten Kamera 14 und der zweiten Kamera 16 erfassten Bilder an einen Digitalisierer (nicht dargestellt) ausgegeben werden können. Die erste Kamera 14 und die zweite Kamera 16 können so konfiguriert sein, dass sie gleichzeitig Bilder desselben überwachten Bereichs erfassen. Damit arbeiten die erste Kamera 14 und die zweite Kamera 16 relativ zueinander im Stereomodus, so dass sie nahe beieinander installiert werden können (z. B. 1 m). Bei den erfassten Bildern kann es sich um jeweils getrennt mit hoher Frequenz (z. B. 15 Einzelbilder pro Sekunde) von der ersten Kamera 14 bzw. der zweiten Kamera 16 aufgenommene Einzelbilder handeln. Die erste Kamera 14 und die zweite Kamera 16 können somit im Wesentlichen ähnliche Bilder erfassen, die sich nur in ihren jeweiligen Blickwinkeln auf Basis ihres physikalischen Abstands unterscheiden. Auf diese Weise kann die Stereobilderfassungsstufe 12 den dreidimensionalen Standort eines potentiellen Eindringlings erkennen, was nachstehend ausführlicher beschrieben wird.
  • Die Fähigkeit, den dreidimensionalen Standort eines potentiellen Eindringlings zu erkennen, kann für eine optimale Anordnung der Stereobilderfassungsstufe 12 genutzt werden. Da das Einbruchsicherungssystem 10 mit Stereokameraüberwachung den dreidimensionalen Standort des potentiellen Eindringlings erkennen kann, ist es nicht erforderlich, die Stereobilderfassungsstufe 12 in erhöhter Position zu installieren, sondern sie könnte etwa auf Bodenhöhe und parallel zum Boden angebracht werden. Eine derartige Anbauanordnung kann erheblich kostengünstiger sein als eine Installation an einer höheren Stelle und ist wesentlich weniger auffällig als die höhere Installation. Dadurch können potentielle Eindringlinge die Stereobilderfassungsstufe 12 möglicherweise nicht ausmachen und haben somit keine Möglichkeit, sich zu verstecken oder Gegenmaßnahmen zu deren Ausschaltung zu ergreifen.
  • Die erfassten Bilder werden von der Stereobilderfassungsstufe 12 an einen Token-Detektor 18 ausgegeben. Der Token-Detektor 18 ist so konfiguriert, dass er die erfassten Bilder von der ersten Kamera 14 und/oder der zweiten Kamera 16 mit einem Hintergrundbild vergleicht. Wie nachstehend ausführlicher beschrieben wird, kann der Token-Detektor 18 die Anwesenheit eines potentiellen Eindringlings auf Basis der Unterschiede zwischen den Bildpunkten bestimmen, die zu jedem der erfassten Bilder von der ersten Kamera 14 und/oder der zweiten Kamera 16 gehören sowie den zum Hintergrundbild gehörenden Bildpunkten. Wie nachstehend ebenfalls ausführlicher beschrieben wird, kann der Token-Detektor 18 zusätzlich oder wahlweise die Anwesenheit eines potentiellen Eindringlings auf Basis von Unterschieden der Struktur zwischen den erfassten Bildern von der ersten Kamera 14 und/oder der zweiten Kamera 16 und dem Hintergrundbild bestimmen.
  • Das Hintergrundbild kann von einem Hintergrundbildgenerator 20 erzeugt werden. Der Hintergrundbildgenerator 20 ist im Beispiel von 1 so verwirklicht, dass er eine Eingabe von der Stereobilderfassungsstufe 12 erhält. Die Eingabe könnte eine Eingabe von der ersten Kamera 14, der zweiten Kamera 16 oder sowohl von der ersten Kamera 14 als auch der zweiten Kamera 16 sein. Der Hintergrundbildgenerator 20 kann also ein Hintergrundbild auf Basis eines erfassten Bildes von der ersten Kamera 14, der zweiten Kamera 16 oder getrennte Hintergrundbilder jeweils von der ersten Kamera 14 und der zweiten Kamera 16 erzeugen.
  • Der Hintergrundbildgenerator 20 kann das Hintergrundbild kontinuierlich erzeugen, indem er das Hintergrundbild mit einer Mehrzahl Bildpunkte der erfassten Bilder von der ersten Kamera 14 und/oder der zweiten Kamera 16 periodisch aktualisiert. Dadurch können allmähliche Umgebungsänderungen im überwachten Bereich wie Schatten, die durch den sich ändernden Sonnenstand geworfen werden, in das Hintergrundbild integriert werden. Das Einbruchsicherungssystem 10 mit Stereokameraüberwachung kann dadurch keine falschen positiven Ergebnisse auf Basis der allmählichen Umgebungsänderungen registrieren. Außerdem kann das vom Hintergrundbildgenerator 20 erzeugte Hintergrundbild stabilisiert werden. Das stabilisierte Hintergrundbild kann auf die erfassten Bilder von der ersten Kamera 14 und/oder der zweiten Kamera 16 waagrecht und senkrecht ausgerichtet werden, um Kameragrellen auszugleichen, was nachstehend anhand des Beispiels von 2 ausführlicher beschrieben wird.
  • Für jedes der erfassten Bilder von jeder der ersten Kamera 14 und der zweiten Kamera 16 kann der Token-Detektor 18 ein Differenzbild erzeugen, das einen absoluten Wert der Bildpunktdifferenz zwischen dem jeweils erfassten Bild und dem Hintergrundbild repräsentiert. Der Token-Detektor 18 kann dann für das Differenzbild einen Bildpunktausfüllalgorithmus derart ausführen, dass Differenzbildpunkte, die im Differenzbild nahe beieinander liegen, verbunden werden können, um einen Kandidat-Token zu bilden. Der Kandidat-Token könnte einem potentiellen Eindringling entsprechen.
  • Bei einer alternativen Ausführungsform, wie sie im Beispiel von 7 dargestellt ist, kann der Token-Detektor 18 einen Bildfilteralgorithmus enthalten, so dass die erfassten Bilder von der ersten Kamera 14 und der zweiten Kamera 16 sowie das Hintergrundbild sämtlich gefiltert werden können. Die gefilterten Bilder von der ersten Kamera 14 und der zweiten Kame ra 16 können vom Token-Detektor 18 mit dem gefilterten Hintergrundbild verglichen werden, um Änderungen der Struktur zwischen den erfassten Bildern von der ersten Kamera 14 bzw. der zweiten Kamera 16 gegenüber dem Hintergrundbild zu bestimmen. Auf diese Weise können Helligkeits- und Kontrastdifferenzen zwischen den erfassten Bildern und dem Hintergrundbild vom Einbruchsicherungssystem 10 mit Stereokameraüberwachung ignoriert werden. Die Strukturunterschiede zwischen den gefilterten Bildern von der ersten Kamera 14 und der zweiten Kamera 16 und dem gefilterten Hintergrundbild können der Kandidat-Token sein, der den potentiellen Eindringling repräsentieren könnte. Der Token-Detektor 18 könnte jedoch außerdem den Kandidat-Token mittels einer Absolutwert-Bildpunktdifferenz auswerten, um die Anwesenheit eines potentiellen Eindringlings redundant zu bestimmen.
  • Das Einbruchsicherungssystem 10 mit Stereokameraüberwachung enthält außerdem einen Bildverfolger 22. Der Bildverfolger 22 enthält eine Standorterfassungsmaschine 24, einen dreidimensionalen Bewegungsrechner 26 und einen Schwellenwertkomparator 28. Der Token-Detektor 18 übermittelt den Standort des Kandidat-Tokens an die Standorterfassungsmaschine 24. Außerdem kann die Stereobilderfassungsstufe 12 die von einer oder beiden der ersten Kamera 14 und der zweiten Kamera 16 erhaltenen Bilder an die Standorterfassungsmaschine 24 übertragen. Die Standorterfassungsmaschine 24 ist so konfiguriert, dass sie einen dreidimensionalen Standort und eine Größe des potentiellen Eindringlings bestimmt. Die Standorterfassungsmaschine 24 kann beispielsweise die von der ersten Kamera 14 erhaltenen Bilder mit den von der zweiten Kamera 16 erhaltenen Bildern kombinieren. Die Standorterfassungsmaschine 24 kann dann einen Korrelationsalgorithmus auf die entsprechenden von der ersten und zweiten Kamera 14 und 16 erhaltenen Bilder anwenden, um einen relativen zweidimensionalen Standort des Kandidat-Tokens in den von der ersten Kamera 14 erhaltenen Bildern in Bezug auf die von der zweiten Kamera 16 erhaltenen Bilder zu bestimmen. Die Standorterfassungsmaschine 24 kann somit den dreidimensionalen Standort und die Größe des potentiellen Eindringlings auf Basis einer Parallaxenverschiebung des potentiellen Eindringlings in den von der ersten Kamera 14 erhaltenen Bildern relativ zur zweiten Kamera 16 bestimmen.
  • Bei der Bestimmung der Parallaxenverschiebung des potentiellen Eindringlings kann die Standorterfassungsmaschine 24 einen Bildfilterungsalgorithmus auf jedes der von der ersten Kamera 14 und der zweiten Kamera 16 erhaltenen Bilder anwenden, um erste bzw. zweite gefilterte Bilder zu erhalten. Der Filterungsalgorithmus könnte z. B. ein "Sign of Laplacian of Gaussian" (SLOG) Filterungsalgorithmus sein. Außerdem könnte die Standorterfassungsma schine 24 mehrere Filterungsalgorithmen auf jedes Bild von der ersten Kamera 14 und der zweiten Kamera 16 so anwenden, dass jedes gefilterte Bild eine andere Auflösung hat. Die Standorterfassungsmaschine 24 könnte dann die zweiten gefilterten Bilder mit den ersten gefilterten Bildern überlagern und den Korrelationsalgorithmus anwenden. Die Überlagerung könnte das Überlagern des Kandidat-Tokens in den ersten gefilterten Bildern über den ungefähren Standort des potentiellen Eindringlings in den zweiten gefilterten Bildern, die vom Token-Detektor 18 übertragen worden sind, enthalten. Im Beispiel eines Einbruchsicherungssystem 10 mit Stereokameraüberwachung, das einen Kandidat-Token auf den sowohl von der ersten Kamera 14 als auch der zweiten Kamera 16 erhaltenen Bildern bestimmt, wendet die Standorterfassungsmaschine 24 den Bildfilterungsalgorithmus möglicherweise nicht an, sondern überlagert einfach das Differenzbild von der zweiten Kamera 16 mit dem Differenzbild der ersten Kamera 14, bevor der Korrelationsalgorithmus angewendet wird.
  • Der Korrelationsalgorithmus könnte beispielsweise einen iterativen Bildpunktschiebealgorithmus enthalten, der das erste gefilterte Bild relativ zum zweiten gefilterten Bild um mindestens einen Bildpunkt pro Verschiebung verschiebt und das erste gefilterte Bild mit dem jeweiligen zweiten gefilterten Bild bei jeder Verschiebung vergleicht. Der Vergleich könnte die Bestimmung eines Korrelationsstandes für jede Verschiebung enthalten. Bei der Bestimmung einer Verschiebung mit dem höchsten Korrelationsstand kann die Standorterfassungsmaschine 24 die Parallaxenverschiebung des potentiellen Eindringlings auf Basis einer Anzahl Bildpunkt mit einem Versatz zwischen den ersten und zweiten Bildern bestimmen. Die Standorterfassungsmaschine 24 könnte dann die Anzahl Bildpunkt mit Versatz in eine Maßeinheit im dreidimensionalen Raum wandeln, um einen dreidimensionalen Standort und die Größe des potentiellen Eindringlings zu bestimmen.
  • Um den dreidimensionalen Standort und die Größe des potentiellen Eindringlings zu bestimmen, ist es natürlich erforderlich, dass die Standorterfassungsmaschine 24 ein gegebenes Bild von der ersten Kamera 14 bezüglich eines entsprechenden Bildes von der zweiten Kamera 16 auswertet, das im Wesentlichen zur gleichen Zeit erfasst worden ist. Die Standorterfassungsmaschine 24 gibt die Informationen über den dreidimensionalen Standort und die Größe jedes Einzelbildes der erfassten Bilder von der ersten Kamera 14 und der zweiten Kamera 16 an den dreidimensionalen Bewegungsrechner 26 aus. Der dreidimensionale Bewegungsrechner 26 kann Änderungen des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings über mehrere Bilder und damit mehrere Einzelbilder der ersten Kamera 14 und der zweiten Kamera 16 verfolgen. Die Änderungen des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings über die Bilder der ersten Kamera 14 und der zweiten Kamera 16 können für die dreidimensionale Bewegung des potentiellen Eindringlings wie Richtung und Geschwindigkeit der Bewegung bestimmend sein.
  • Die Informationen bezüglich Standort, Größe und Bewegung des potentiellen Eindringlings können an den Schwellenwertkomparator 28 ausgegeben werden, der mit einer Meldeeinrichtung 30 gekoppelt ist. Die Meldeeinrichtung 30 kann z. B. ein akustischer Alarm, eine visuelle Anzeige oder eine beliebige Einrichtung aus einer Vielzahl anderer Meldeeinrichtungen sein. Ferner kann die Meldeeinrichtung 30 mit einem Netz gekoppelt sein, so dass die Meldeeinrichtung 30 in Räumlichkeiten entfernt vom überwachten Bereich, wie z. B. in einem Polizeirevier, installiert sein kann. Der Schwellenwertkomparator 28 kann mit vielfältigen Schwellenwertbedingungen programmiert werden, die geeignet sind, einen Bediener (z. B. Wachpersonal und/oder Polizeibeamte) des Einbruchsicherungssystems 10 mit Stereokameraüberwachung auf die Meldeeinrichtung 30 aufmerksam zu machen. So könnte beispielsweise bei Bestimmung eines potentiellen Eindringlings, der größer ist als etwa ein kleiner Hund, der Schwellenwertkomparator 28 die Meldeeinrichtung 30 auslösen. Der Größenschwellenwert könnte spezifisch für die Körpergröße und nicht nur die Gesamtgröße sein. Auf diese Weise kann der Schwellenwertkomparator 28 sicherstellen, dass keine falschen positiven Bedingungen von potentiellen Eindringlingen stammen, die die zuständigen Bediener des Einbruchsicherungssystems 10 mit Stereokameraüberwachung nicht zu beobachten brauchen, wie Vögel oder Kaninchen.
  • Die Schwellenwertbedingung könnte auch einer gegebenen Geschwindigkeit des potentiellen Eindringlings entsprechen, so dass z. B. Kraftfahrzeuge, die mit oder über einer bestimmten Geschwindigkeit fahren, die Meldeeinrichtung 30 auslösen. Außerdem kann der Bediener des Einbruchsicherungssystems 10 mit Stereokameraüberwachung dreidimensionale Abschnitte des überwachten Bereichs als Schwellenwertzonen oder Nullzonen einrichten. Der Schwellenwertkomparator 28 kann somit die Meldeeinrichtung 30 auslösen, wenn sich der potentielle Eindringling in eine oder zu einer Schwellenwertzone bewegt. Analog könnte der Schwellenwertkomparator 28 die Meldeeinrichtung 30 deaktivieren, wenn ein potentieller Eindringling in einer Nullzone erkannt wird, so dass dreidimensionale Abschnitte des überwachten Bereichs, die für die Sicherheitsüberwachung keine besondere Rolle spielen, deaktiviert werden können. Damit können falsche positive Bedingungen aufgrund bestimmter Änderungen in der Umgebung, wie sich bewegende Äste, umgangen werden. Es versteht sich, dass der Schwellenwertkomparator 28 auch so programmiert werden kann, dass er einen beliebigen Schwellenwert aus einer Anzahl Schwellenwerte sowie kombiniert zu berücksichtigende Schwellenwerte anwendet. Der Schwellenwertkomparator 28 kann z. B. so programmiert werden, dass er die Meldeeinrichtung 30 nur dann auslöst, wenn ein potentieller Eindringling sowohl eine bestimmte vorgegebene Größe hat und als sich auch mit einer bestimmten vorgegebenen Geschwindigkeit bewegt.
  • Es versteht sich, dass das Einbruchsicherungssystem 10 mit Stereokameraüberwachung nicht auf das in 1 dargestellte Beispiel beschränkt sein soll. Das Einbruchsicherungssystem 10 mit Stereokameraüberwachung kann z. B. in der Stereobilderfassungsstufe 12 mehr als nur zwei Stereokameras enthalten. Außerdem kann jede beliebige Konfiguration einer Reihe verschiedener Konfigurationen für das Einbruchsicherungssystem 10 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung implementiert werden, was anhand der Beispiele der 4, 6 und 7 erläutert werden wird.
  • 2 zeigt ein Beispiel eines Hintergrundbildgenerators 50 gemäß einem Aspekt der Erfindung. Es versteht sich, dass der Hintergrundbildgenerator 50 dem Hintergrundbildgenerator 20 im Beispiel von 1 im Wesentlichen ähnlich sein kann. Deshalb wird in der nachfolgenden Erläuterung von 2 auf 1 Bezug genommen, und gleiche Bezugszeichen werden verwendet. Der Hintergrundbildgenerator 50, wie er im Beispiel von 2 dargestellt ist, empfängt Bilddaten von einer Kamera 52, bei der es sich entweder um die erste Kamera 14 oder die zweite Kamera 16 vom Beispiel in 1 handeln könnte. Ein Einzelbild von der Kamera 52 kann zur Erzeugung eines erfassten Hintergrundbildes 54 verwendet werden. Das erfasste Hintergrundbild 54 könnte ein Bild des überwachten Bereichs sein, das zu einem vorgegebenen Zeitpunkt aufgenommen wird. Ein Bediener des Einbruchsicherungssystems mit Stereokameraüberwachung, in dem der Hintergrundbildgenerator 50 verwendet wird, kann den Hintergrundbildgenerator 50 mit einer Eingabe veranlassen, das erfasste Hintergrundbild 54 zu erzeugen, wenn er bestimmt, dass sich im überwachten Bereich keine Eindringlinge befinden. Außerdem könnte der Hintergrundbildgenerator 50 das erfasste Hintergrundbild 54 zu vorgegebenen Zeitpunkten, wie z. B. einmal pro Minute, periodisch erzeugen, um allmähliche Änderungen der Umgebungsbedingungen wie vorüberziehende Wolken zu berücksichtigen.
  • Der Hintergrundbildgenerator 50 enthält ferner einen Hintergrundbildaktualisierer 56. Der Hintergrundbildaktualisierer 56 empfängt periodisch Eingaben von der Kamera 52 zur Aktualisierung des erfassten Hintergrundbildes 54, um allmähliche Änderungen, die im überwach ten Bereich stattfinden, zu berücksichtigen. Der Hintergrundbildaktualisierer 56 kann beispielsweise in regelmäßigen Abständen eine Mehrzahl Bildpunkte aus den von der Kamera 52 erfassten Bildern zum erfassten Hintergrundbild 54 hinzufügen. Selbstverständlich können bei der Festlegung der Häufigkeit, mit der das erfasste Hintergrundbild 54 aktualisiert wird, Kompromisse gemacht werden. Wenn z. B. das erfasste Hintergrundbild 54 zu rasch aktualisiert wird, könnte ein potentieller Eindringling Teil des erfassten Hintergrundbildes 54 werden, was in einem möglichen falschen negativen Ergebnis resultieren würde. Wenn umgekehrt das erfasste Hintergrundbild 54 zu langsam aktualisiert, könnten die allmählichen Änderungen in der Umgebung des überwachten Bereichs in der Erzeugung von Kandidat-Token resultieren, was zu möglichen falschen positiven Ergebnissen führen könnte. Der Hintergrundbildaktualisierer 56 kann deshalb bezüglich der zum erfassten Hintergrundbild 54 hinzuzufügenden Bildpunktmenge sowie der Häufigkeit, mit der die Bildpunkte zum erfassten Hintergrundbild 54 hinzuzufügen sind, programmiert werden.
  • Wie oben für das Einbruchsicherungssystem 10 mit Stereokameraüberwachung im Beispiel von 1 beschrieben worden ist, kann der Token-Detektor 18 so konfiguriert werden, dass er einen Absolutwert-Bildpunktdifferenzalgorithmus anwendet, um ein Differenzbild zu erzeugen. Das Differenzbild stellt also eine Absolutwert-Bildpunktdifferenz zwischen dem Hintergrundbild und jedem der Bilder dar, die von der ersten Kamera 14 und/oder der zweiten Kamera 16 erfasst werden. Deshalb kann eine geringfügige Abweichung der waagrechten und/oder senkrechten Ausrichtung zwischen dem von der Kamera erfassten Bild und dem Hintergrundbild in einem Differenzbild resultieren, das eine erhebliche Abweichung aufweist, obwohl im tatsächlich überwachten Bereich im Wesentlichen keine Änderungen aufgetreten sind. Diese Fehlausrichtung kann durch Kameragrellen verursacht werden, wenn sich die Bilderfassungskamera durch Wind, Vibration oder einen der vielfältigen anderen Faktoren etwas bewegt hat. Die Bewegung könnte bewirken, dass die erfassten Bilder gegenüber dem Hintergrundbild in einer gegebenen Richtung um einen oder mehrere Bildpunkte versetzt sind, was in einem Differenzbild resultieren könnte, das eine extreme Abweichung zwischen den erfassten Bildern und dem Hintergrundbild bedeutet, wodurch eine falsche positive Erkennung eines Eindringlings hervorgerufen wird.
  • Um das Kameragrellen auszugleichen, hat der Hintergrundbildgenerator 50 einen Stabilisator 58 für das Hintergrundbild. Der Stabilisator 58 für das Hintergrundbild ist so konfiguriert, dass er die erfassten Bilder der Kamera 52 relativ zum erfassten Hintergrundbild 54 senkrecht und waagrecht ausrichtet, so dass das erfasste Hintergrundbild 54 stabilisiert wird. Der Stabilisator 58 für das Hintergrundbild empfängt jedes erfasste Bild von der Kamera 52 und das erfasste Hintergrundbild 54 als Eingaben. Das erfasste Hintergrundbild 54 wird in ein Sign of Laplacian of Gaussian (SLOG) Hintergrundfilter 60 und die erfassten Bilder von der Kamera 52 werden jeweils in ein Bild-SLOG-Filter 62 eingegeben. Selbstverständlich sind das Hintergrund-SLOG-Filter 60 und das Bild-SLOG-Filter 62 nicht auf SLOG-Filter beschränkt, sondern können ein beliebiges Filter aus einer Vielzahl Bandpassbildfilter sein. Das Hintergrund-SLOG-Filter 60 und das Bild-SLOG-Filter 62 haben die Funktion, die entsprechenden Bilder in gefilterte Bilder so zu wandeln, dass in den gefilterten Bildern Strukturkontraste hervorgehoben werden. Es versteht sich außerdem, dass das erfasste Hintergrundbild 54 mit jeder Aktualisierung durch den Hintergrundbildaktualisierer 56 nur in das Hintergrund-SLOG-Filter 60 eingegeben werden kann.
  • 3 zeigt ein Beispiel eines Kamerabildes 100 und eines ersten gefilterten Bildes 102, eines zweiten gefilterten Bildes 104 und eines dritten gefilterten Bildes 106 des Kamerabildes 100 gemäß einem Aspekt der Erfindung. Im Beispiel von 3 sind das erste gefilterte Bild 102, das zweite gefilterte Bild 104 und das dritte gefilterte Bild 106 jeweils SLOG-gefilterte Bilder des Kamerabildes 100. Die gefilterten Bilder 102, 104 und 106 zeigen schwarz-weiße Bildpunktmuster von Strukturkontrasten des Kamerabildes 100 und sind daher nicht repräsentativ für Helligkeitsänderungen des Kamerabildes 100. Schatten von vorüberziehenden Wolken und andere Helligkeitsmuster werden deshalb in SLOG-gefilterten Bildern wie den Bildern 102, 104 und 106 nicht erkannt.
  • Das erste gefilterte Bild 102, das zweite gefilterte Bild 104 und das dritte gefilterte Bild 106 haben jeweils verschiedene Grade der Auflösung bei den binären Strukturkontrasten des Kamerabildes 100. Das erste gefilterte Bild 102 ist eine gefilterte Darstellung des Kamerabildes 100 mit niedriger Auflösung, das zweite gefilterte Bild 104 ist eine gefilterte Darstellung des Kamerabildes 100 mit mittlerer Auflösung und das dritte gefilterte Bild 106 ist eine gefilterte Darstellung des Kamerabildes 100 mit hoher Auflösung. Ein gegebenes SLOG-Filter wie das Hintergrund-SLOG-Filter 60 und das Bild-SLOG-Filter 62 im Beispiel von 2 kann eingestellt werden, um die verschiedenen Grade der binären Strukturauflösung zu erhalten, wie im Beispiel von 3 dargestellt. Wie das Beispiel von 3 zeigt, definiert das gefilterte Bild 106 ein genaueres binäres Strukturmuster des Kamerabildes 100 als die gefilterten Bilder 102 und 104. Allerdings kann das gefilterte Bild 106 anfälliger auf Rauschen beim Filtern des Kamerabildes 100 sein.
  • Nunmehr sei erneut auf 2 verwiesen, wonach das Hintergrund-SLOG-Filter 60 und das Bild-SLOG-Filter 62 nur eine Grobfilterungsoperation wie das gefilterte Bild 102 des erfassten Hintergrundbildes 54 und der von der Kamera 52 empfangenen visuellen Bilder vornehmen können. Die gefilterten Bilder werden jeweils vom Hintergrund-SLOG-Filter 60 und Bild-SLOG-Filter 62 an einen Korrelator 64 für gefilterte Bilder ausgegeben. Der Korrelator 64 für gefilterte Bilder überlagert das gefilterte erfasste visuelle Bild mit dem gefilterten erfassten Hintergrundbild. Der Korrelator 64 für gefilterte Bilder verschiebt dann iterativ das gefilterte erfasste Hintergrundbild um jeweils einen Bildpunkt über das gefilterte erfasste visuelle Bild.
  • Mit jeder Verschiebung um einen Bildpunkt kann der Korrelator 64 für gefilterte Bilder einen Korrelationsstand bestimmen. Der Korrelationsstand kann auf der Grundlage, wie viele binäre Strukturmusterbildpunkte übereinstimmen, dafür repräsentativ sein, wie gut das gefilterte erfasste Hintergrundbild auf das gefilterte erfasste visuelle Bild ausgerichtet ist. Die Verschiebung kann sowohl in der senkrechten als auch in der waagrechten Richtung und über das gesamte oder einen Abschnitt des Bildes erfolgen, so dass positive uncinegative Bildpunktschiebegrenzen sowohl in der senkrechten als auch in der waagrechten Richtung eingestellt werden können. Die Bildpunktverschiebung, die im höchsten Korrelationsstand resultiert, kann für die hinreichende Ausrichtung zwischen dem gefilterten erfassten Hintergrundbild und dem gefilterten erfassten visuellen Bild repräsentativ sein. Es versteht sich, dass der Korrelator 64 für gefilterte Bilder die Korrelation für jedes zu jedem Einzelbild der Kamera 52 gehörige gefilterte erfasste visuelle Bild relativ zum gefilterten erfassten Hintergrundbild ausführen kann.
  • Bei Bestimmung einer hinreichenden Korrelation zwischen dem gefilterten erfassten Hintergrundbild und dem gefilterten erfassten visuellen Bild übermittelt der Korrelator 64 für gefilterte Bilder die Anzahl der verschobenen Bildpunkte zum Erreichen der Korrelation an einen Bildschieber 66. Der Bildschieber 66 empfängt das erfasste Hintergrundbild 54 und verschiebt es um die Anzahl der ihm vom Korrelator 64 für gefilterte Bilder übertragenen Bildpunkte. Das verschobene erfasste Hintergrundbild wird dann vom Bildschieber 66 an einen Token-Detektor wie den Token-Detektor 18 im Beispiel von 1 ausgegeben. Auf diese Weise kann das Hintergrundbild stabilisiert werden, um falsche positive Einbruchsdetektionsergebnisse zu vermindern, die aus Absolutwert-Bildpunktdifferenzen in einem Differenzbild aufgrund der fehlenden waagrechten und senkrechten Ausrichtung zwischen dem Hintergrundbild und den erfassten visuellen Bildern von einer entsprechenden Kamera resultieren.
  • Es versteht sich, dass der Hintergrundbildgenerator 50 nicht auf das Beispiel von 2 beschränkt ist. Es können beispielsweise manche oder alle Komponenten des Hintergrundbildstabilisators 58 miteinander integriert werden. Bei einem anderen Beispiel kann der Bildschieber 66 im jeweiligen Token-Detektor so vorgesehen sein, dass der Hintergrundbildstabilisator 58 die Informationen über die Bildpunktausrichtung an den Token-Detektor ausgibt. Des weiteren kann bei einem anderen Beispiel der Korrelator 64 für gefilterte Bilder das gefilterte erfasste visuelle Bild relativ zum gefilterten erfassten Hintergrundbild korrelieren und die Informationen über die Bildpunktverschiebung an den Token-Detektor übertragen. Somit kann jedes erfasste visuelle Bild relativ zum Hintergrundbild im Token-Detektor verschoben werden, statt das erfasste Hintergrundbild zu verschieben.
  • 4 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems 150 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem 150 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe 152 mit einer ersten Kamera 154 und einer zweiten Kamera 156. Die erste Kamera 154 und die zweite Kamera 156 können Digitalkameras sein. Die erste Kamera 154 und die zweite Kamera 156 können so konfiguriert sein, dass sie gleichzeitig Bilder desselben überwachten Bereichs erfassen. Damit arbeiten die erste Kamera 154 und die zweite Kamera 156 relativ zueinander im Stereomodus, so dass sie nahe beieinander installiert werden können (z. B. 1 m). Bei den erfassten Bildern kann es sich um jeweils getrennt mit hoher Frequenz (z. B. 15 Einzelbilder pro Sekunde) von der ersten Kamera 154 bzw. der zweiten Kamera 156 aufgenommene Einzelbilder handeln.
  • Das Einbruchsicherungssystem 150 mit Stereokameraüberwachung enthält einen Token-Detektor 158. Der Token-Detektor 158 enthält einen Bildkomparator 160, einen Bildausfüller 162 und einen Token-Positionsanzeiger 164. Die von der Kamera 154 erfassten visuellen Bilder werden an den Bildkomparator 160 ausgegeben. Der Bildkomparator 160 ist so konfiguriert, dass er die erfassten Bilder von der ersten Kamera 154 mit einem Hintergrundbild vergleicht, das von einem Hintergrundbildgenerator 166 erzeugt worden ist. Der Hintergrundbildgenerator 166 kann im Wesentlichen dem im Beispiel von 2 oben beschriebenen Hintergrundbildgenerator 50 ähnlich sein. Somit kann das vom Hintergrundbildgenerator 166 ausgegebene Hintergrundbild auf die erfassten Bilder, die von der Kamera 154 ausgegeben werden, im Wesentlichen senkrecht und waagrecht ausgerichtet werden.
  • Der Bildkomparator 160 führt einen Absolutwert-Bildpunktdifferenzalgorithmus aus, um ein Differenzbild zu erzeugen. Die Bildpunktdifferenzen können auf der Struktur, der Helligkeit und dem Farbkontrast basieren. Das Differenzbild zeigt also im Wesentlichen sämtliche Bildpunkte, die in jedem der erfassten Bilder von der Kamera 154 und dem Hintergrundbild verschieden sind. Es versteht sich, dass der Bildkomparator 160 ein Differenzbild für jedes der Bilder entsprechend jedem der von der Kamera 154 ausgegebenen Einzelbilder erzeugt.
  • Das Differenzbild allein kann jedoch möglicherweise ein Bild eines potentiellen Eindringlings aus Absolutwertbildpunkten nicht genau wiedergeben. Ein schwarz gekleideter Eindringling kann sich z. B. vor einer schwarzen Hintergrundfläche im überwachten Bereich anschleichen. Der Bildkomparator 160 kann zwar Hände, Gesicht und Schuhe des Eindringlings bei Anwendung des Absolutwert-Bildpunktdifferenzalgorithmus unterscheiden, aber die erfassten Bilder können Teile des Körpers des Eindringlings enthalten, die vom Bildkomparator 160 gegenüber dem Hintergrundbild nicht unterschieden werden können. Der Bildkomparator 160 gibt deshalb das Differenzbild an den Bildausfüller 162 aus.
  • Der Bildausfüller 162 wendet einen Bildpunktausfüllalgorithmus auf das Differenzbild an, so dass bestimmt werden kann, ob ein Kandidat-Token existiert. Der Bildpunktausfüllalgorithmus verbindet Bildpunkte, die im Differenzbild nahe beieinander liegen, so dass die verbundenen Bildpunkte eine Form annehmen können, um das Vorhandensein eines Kandidat-Tokens zu bestimmen. Der Bildausfüllalgorithmus könnte z. B. mit dem waagrechten Ausfüllen des Differenzbildes von links nach rechts beginnen, so dass Bildpunkte auf einer waagrechten Linie, die voneinander einen bestimmten vordefinierten Abstand haben, zuerst verbunden werden können. Der vordefinierte Bildpunktabstand kann so eingestellt werden, dass unsinnige Ergänzungen vermieden werden, die in falschen positiven Ergebnissen resultieren könnten. Der Bildausfüllalgorithmus könnte dann eine ähnliche Operation mit dem Differenzbild in senkrechter Richtung ausführen. Als Ergebnis können eng gruppierte nicht verbundene Bildpunkte zum Ausgleichen von Ungenauigkeiten, die sich bei der Ermittlung der Absolutwertbildpunktdifferenz ergeben können, ausgefüllt werden. Beim obigen Beispiel des getarnten Eindringlings kann dieser also trotzdem ausgemacht werden, da Hände, Gesicht und Schuhe ausgefüllt werden können, um einen zweidimensionalen "Klecks" aus Bildpunkten im Differenzbild zu bilden.
  • Das ausgefüllte Differenzbild wird vom Bildausfüller 162 an den Token-Positionsanzeiger 164 ausgegeben. Die ausgefüllte Bildpunktgruppe im ausgefüllten Differenzbild kann vom Token- Positionsanzeiger 164 geprüft werden. Wenn die ausgefüllte Bildpunktgruppe wie der zweidimensionale Bildpunkt-"Klecks" des Eindringlings vordefinierte Formschwellenwerte überschreitet, kann der Token-Positionsanzeiger 164 die ausgefüllte Bildpunktgruppe als Kandidat-Token markieren. Der Token-Positionsanzeiger 164 bestimmt also die Bildpunktkoordinaten des Ortes des Kandidat-Tokens im ausgefüllten Differenzbild und überträgt die Informationen über den zweidimensionalen Bildpunktort des Kandidat-Tokens als ein Signal TKN_LOC an eine Standorterfassungsmaschine 168. Der Kandidat-Token könnte wie oben beim Beispiel von 1 beschrieben einem potentiellen Eindringling entsprechen.
  • Die erfassten Bilder jeder der Kameras 154 und 156 werden auch an die Standorterfassungsmaschine 168 ausgegeben. Die Standorterfassungsmaschine 168, die der oben im Beispiel von 1 beschriebenen ähnlich ist, ist so konfiguriert, dass sie einen dreidimensionalen Standort und die Größe eines potentiellen Eindringlings bestimmt, und könnte Bestandteil eines Bildverfolgers sein, der auch einen dreidimensionalen Bewegungsrechner und einen Schwellenwertkomparator enthält. Im Einzelnen gibt die Kamera 154 ihre jeweiligen erfassten Bilder an ein erstes Sign of Laplacian of Gaussian (SLOG)-Filter 170 und die zweite Kamera ihre jeweiligen erfassten Bilder an ein zweites SLOG-Filter 172 aus. Im Beispiel von 4 wendet jedes Filter des ersten SLOG-Filters 170 und des zweiten SLOG-Filters 172 mehrere SLOG-Filterungsoperationen auf jedes der erfassten Bilder von der ersten Kamera 154 bzw. der zweiten Kamera 156 an. Die SLOG-Filter 170 und 172 führen insbesondere eine SLOG-Filterungsoperation mit niedriger Auflösung, eine SLOG-Filterungsoperation mit mittlerer Auflösung und eine SLOG-Filterungsoperation mit hoher Auflösung mit jedem der erfassten Bilder aus. Diese SLOG-Filterungsoperationen könnten jeweils dem ersten gefilterten Bild 102, dem zweiten gefilterten Bild 104 und dem dritten gefilterten Bild 106 im obigen Beispiel von 3 entsprechen. Das erste SLOG-Filter gibt ein gefiltertes Bild mit hoher Auflösung R_HIGH, ein gefiltertes Bild mit mittlerer Auflösung R_MED und ein gefiltertes Bild mit niedriger Auflösung R_LOW an einen Bildkorrelator 174 aus. Das zweite SLOG-Filter gibt ein gefiltertes Bild mit hoher Auflösung L_HIGH, ein gefiltertes Bild mit mittlerer Auflösung L_MED und ein gefiltertes Bild niedriger Auflösung L_LOW an den Bildkorrelator 174 aus. Somit kann bei der Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings ein ausgewogener Kompromiss zwischen Bildgenauigkeit und Rauschen wie oben im Beispiel von 3 beschrieben erzielt werden.
  • 5 zeigt ein Beispiel eines Bildkorrelators 200 gemäß einem Aspekt der Erfindung. Der Bildkorrelator 200 im Beispiel von 5 kann dem Bildkorrelator 174 im Beispiel von 4 entsprechen. Deshalb wird in der nachfolgenden Erläuterung von 5 auf 4 Bezug genommen, und gleiche Bezugszeichen werden verwendet. Der Bildkorrelator 200 enthält einen Bildüberlagerungskombinierer 202. Der Bildüberlagerungskombinierer 202 empfängt die gefilterten Bilder, die vom ersten SLOG-Filter 170 und vom zweiten SLOG-Filter 172 ausgegeben werden, und überlagert Paare der gefilterten Bilder in der Weise, dass gefilterte Bildpaare mit gleicher Auflösung überlagert werden. So wird z. B. das gefilterte Bild L_HIGH mit hoher Auflösung von der Kamera 156 mit dem gefilterten Bild R_HIGH mit hoher Auflösung von der Kamera 154 überlagert. Analog wird das gefilterte Bild L_MED mit mittlerer Auflösung von der Kamera 156 mit dem gefilterten Bild R_MED mit mittlerer Auflösung von der Kamera 154 überlagert. In gleicher Weise wird das gefilterte Bild L_LOW mit niedriger Auflösung von der Kamera 156 mit dem gefilterten Bild R_LOW mit niedriger Auflösung von der Kamera 154 überlagert. Der Bildüberlagerungskombinierer 202 empfängt auch das Signal TKN_LOC, so dass die gefilterten Bilder L_HIGH, L_MED und L_LOW mit den gefilterten Bildern R_HIGH, R_MED bzw. R_LOW an einem Ort überlagert werden können, der dem ungefähren Standort des potentiellen Eindringlings in den entsprechenden gefilterten Bildern L_HIGH, L_MED und L_LOW entspricht. Der Bildpunktort der Überlagerung kann für jedes der gefilterten Bildpaare gleich sein.
  • Die drei überlagerten gefilterten Bildpaare werden vom Bildüberlagerungskombinierer 202 an einen iterativen Bildpunktschieber 204 ausgegeben. Beim Beispiel von 5 wird das überlagerte gefilterte Bildpaar mit hoher Auflösung als HIGH_OVLY, das überlagerte gefilterte Bildpaar mit mittlerer Auflösung als MED_OVLY und das überlagerte gefilterte Bildpaar mit niedriger Auflösung als LOW_OVLY bezeichnet. Es versteht sich, dass im Beispiel von 5 HIGH_OVLY, MED_OVLY und LOW_OVLY getrennte Bildpaare und somit keine tatsächlich kombinierten Bilder sind. Der iterative Bildpunktschieber 204 wendet einen Bildpunktschiebe-Korrelationsalgorithmus auf jedes der gefilterten Bildpaare an, der der oben für den Korrelator 64 für gefilterte Bilder im Beispiel von 2 beschriebenen Korrelationsoperation ähnlich ist. Der iterative Bildpunktschieber 204 kann jedoch jedes gefilterte Bildpaar im Wesentlichen gleichzeitig und in gleicher Weise verschieben.
  • Für jede Bildpunktverschiebung berechnet ein Rechner 206 für den Korrelationsstand bei hoher Auflösung, ein Rechner 208 für den Korrelationsstand bei mittlerer Auflösung und ein Rechner 210 für den Korrelationsstand bei niedriger Auflösung den Korrelationsstand für jedes der gefilterten Bildpaare. Da die gefilterten Bildpaare relativ zueinander eine verschiedene Auflösung haben, können die Korrelationsstände für jedes der gefilterten Bildpaare verschieden sein, obwohl die Bildpunktverschiebung jedes der gefilterten Bildpaare gleich ist. Beispielsweise könnte die gleichzeitige Verschiebung der gefilterten Bilder R_HIGH, R_MED und R_LOW relativ zu den entsprechenden gefilterten Bildern L_HIGH, L_MED und L_LOW um einen Bildpunkt in der +X-Richtung für jedes der gefilterten Bildpaare einen anderen Korrelationsstand ergeben. Es versteht sich, dass im Beispiel von 5 der Korrelationsstand für die Anzahl der Bildpunkte der gefilterten Bilder des Kandidat-Tokens, die mit den Bildpunkten des gefilterten Bildes von der Kamera 156 übereinstimmen, repräsentativ sein kann. Der höchste Korrelationsstand kann in den Bildpunkten des Kandidat-Tokens resultieren, die auf den entsprechenden Bildpunktort des Kandidat-Tokens im anderen gefilterten Bildpendant verschoben werden. Es ist somit zu beachten, dass der Korrelationsstand vor jeglicher Verschiebung erhalten werden kann, da die gefilterten Bilder an ungefähren Bildpunktorten des Kandidat-Tokens in jedem der gefilterten Bilder überlagert werden können.
  • Um die einzelnen Korrelationsstände zu berücksichtigen, geben der Rechner 206 für den Korrelationsstand bei hoher Auflösung, der Rechner 208 für den Korrelationsstand bei mittlerer Auflösung und der Rechner 210 für den Korrelationsstand bei niedriger Auflösung die jeweiligen Korrelationsstände an einen Rechner 212 für die aggregierte Korrelation aus. Der Rechner 212 für die aggregierte Korrelation kann den aggregierten Korrelationsstand auf Basis der einzelnen Korrelationsstände bei der jeweiligen Auflösung bestimmen. Der Rechner 212 für die aggregierte Korrelation kann so programmiert werden, dass er den aggregierten Korrelationsstand auf eine beliebige Weise aus einer Vielzahl Möglichkeiten bestimmt. Der Rechner 212 für die aggregierte Korrelation kann die Korrelationsstände beispielsweise addieren, mitteln oder einzelnen Korrelationsständen einen Gewichtungsfaktor zuordnen, bevor die Korrelationsstände addiert oder gemittelt werden. Somit kann der aggregierte Korrelationsstand für jede Bildpunktverschiebung auf eine für die Bestimmung der Korrelation geeignete Weise bestimmt werden.
  • Der aggregierte Korrelationsstand wird vom Rechner für die aggregierte Korrelation an einen Korrelationsstandspitzendetektor 214 ausgegeben. Der Korrelationsstandspitzendetektor 214 vergleicht die aggregierten Korrelationsstände für jede Verschiebung der gefilterten Bildpaare und bestimmt, welche die für die Korrelation optimale Verschiebung ist. Nach der Bestimmung der Verschiebung, die der besten Korrelation für das gefilterte Bildpaar entspricht, gibt der Korrelationsstandspitzendetektor 214 die Anzahl der Bildpunkte mit Versatz des gefilterten Bildpaares für die optimale Korrelation aus.
  • Es versteht sich, dass der Bildkorrelator 200 nicht auf das Beispiel von 5 beschränkt ist. So kann z. B. der Bildüberlagerungskombinierer 202 keine Eingabe vom Token-Positionsanzeiger 164 erhalten, so dass die gefilterten Bilder nicht am ungefähren Bildpunktort des Kandidat-Tokens überlagert werden. Als Beispiel könnte der Bildkombinierer die gefilterten Bilder an entgegengesetzten Bildpunkträndern überlagern, so dass der iterative Bildpunktschieber ein gefiltertes Bild über die Gesamtheit eines anderen zur Bestimmung der Korrelation schiebt. Bei einem anderen Beispiel können die gefilterten Bildpaare so überlagert werden, dass sie waagrecht und senkrecht ausgerichtet sind, und der Bildpunkt in einem Spiralmuster von den entsprechenden Bildmittelpunkten aus verschoben wird. Außerdem kann vorgesehen werden, dass der Bildkorrelator 200 nicht drei getrennte gefilterte Bildpaare empfängt, sondern zur Korrelierung der Bilder von der ersten Kamera 154 und der zweiten Kamera 156 weniger oder mehr Bildpaare zur Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings erhält. Ferner können einige der im Beispiel von 5 beschriebenen Geräte zu einem einzigen Gerät integriert werden.
  • Nunmehr sei erneut auf 4 verwiesen, wonach die Anzahl der Bildpunkte mit Versatz zwischen den gefilterten Bildern eines gefilterten Bildpaares zur optimalen Korrelation vom Bildkorrelator 174 an eine Dimensionswandlungsmaschine 176 ausgegeben wird. Die Dimensionswandlungsmaschine 176 prüft den Bildpunktversatz in der Korrelation des gefilterten Bildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe 152 entspricht. Die Anzahl der Bildpunkte mit Versatz kann umgekehrt proportional zur Entfernung sein, so dass eine große Anzahl Bildpunkte mit Versatz einer Entfernung entsprechen kann, die näher an der Stereobilderfassungsstufe 152 liegt, während eine kleine Anzahl Bildpunkte mit Versatz einer Entfernung entsprechen kann, die von der Stereobilderfassungsstufe 152 weiter weg liegt. Selbstverständlich kann die Dimensionswandlungsmaschine 176 vorkalibriert werden, um den Bildpunktversatz sinnvoll auf die Entfernung zu beziehen. Beispielsweise kann ein stationäres Objekt, das sich innerhalb des überwachten Bereichs in einer vorgegebenen Entfernung von der Stereobilderfassungsstufe 152 befindet, zur Kalibrierung der Wandlung des Bildpunktversatzes in die Entfernung dienen.
  • Die Bestimmung der Entfernung des potentiellen Eindringlings entspricht also direkt einem dreidimensionalen Standort des potentiellen Eindringlings relativ zur Stereobilderfassungsstufe 152. Nach der Bestimmung des dreidimensionalen Standorts des potentiellen Eindring lings kann die Dimensionswandlungsmaschine 176 die Größe des potentiellen Eindringlings bestimmen. Zum Beispiel kann nach der Bestimmung des dreidimensionalen Standorts des potentiellen Eindringlings eine Anzahl Bildpunkte der Abmessung des Kandidat-Tokens in senkrechter und waagrechter Richtung in die Maßeinheit gewandelt werden, die zur Bestimmung der Entfernung verwendet wird. Ein Kandidat-Token, der nur einige Bildpunkte breit ist und dessen Entfernung von der Stereobilderfassungsstufe 152 als zwei Meter bestimmt wird, könnte also eine Maus sein. Ein Kandidat-Token, dessen Breite die gleiche Anzahl Bildpunkte hat und dessen Entfernung als einige hundert Meter bestimmt wird, könnte ein Kraftfahrzeug sein. Deshalb werden der dreidimensionale Standort und die Größe des potentiellen Eindringlings auf Basis der Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings (d. h. des Kandidat-Tokens) in einem von der ersten Kamera 154 erfassten Bild relativ zum zweidimensionalen Standort des potentiellen Eindringlings in dem von der zweiten Kamera 156 erfassten Bild bestimmt. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine 176 an einen dreidimensionalen Bewegungsrechner und/oder an einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von 1 beschrieben worden ist.
  • 6 zeigt ein anderes Beispiel eines Einbruchsicherungssystems 250 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem 250 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe 252 mit einer ersten Kamera 254 und einer zweiten Kamera 256. Das Einbruchsicherungssystem 250 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor 258. Der Token-Detektor 258 enthält einen ersten Bildkomparator 260, einen ersten Bildausfüller 262 und einen ersten Token-Positionsanzeiger 264. Ferner enthält der Token-Detektor 258 einen zweiten Bildkomparator 266, einen zweiten Bildausfüller 268 und einen zweiten Token-Positionsanzeiger 270. Die von der Kamera 254 erfassten visuellen Bilder werden an den ersten Bildkomparator 260 und die von der Kamera 256 erfassten visuellen Bilder an den zweiten Bildkomparator 266 ausgegeben.
  • Der erste Bildkomparator 260 und der zweite Bildkomparator 266 sind jeweils so konfiguriert, dass sie die erfassten Bilder von der ersten Kamera 254 bzw. von der zweiten Kamera 256 mit einem Hintergrundbild vergleichen, das von einem ersten Hintergrundbildgenerator 272 und einem zweiten Hintergrundbildgenerator 274 erzeugt wird. Der erste Hintergrundbildgenerator 272 und der zweite Hintergrundbildgenerator 274 können jeweils dem Hintergrundbildgenerator 50, der im Beispiel von 2 oben beschrieben worden ist, im Wesentli chen ähnlich sein. Dadurch können das vom vom ersten Hintergrundbildgenerator 272 und das vom zweiten Hintergrundbildgenerator 274 ausgegebene Hintergrundbild mit den erfassten Bildern aus der ersten Kamera 254 bzw. der zweiten Kamera 256 im Wesentlichen senkrecht und waagrecht ausgerichtet werden.
  • Ähnlich wie der Bildkomparator 160 im Beispiel von 4 oben wenden der erste Bildkomparator 260 und der zweite Bildkomparator 262 jeweils einen Absolutwert-Bildpunktdifferenzalgorithmus an, um entsprechende Differenzbilder zu erzeugen. Ebenso wenden der erste Bildausfüller 262 und der zweite Bildausfüller 268 jeweils einen Bildausfüllalgorithmus auf die jeweiligen Differenzbilder an, so dass bestimmt werden kann, ob in jedem der Differenzbilder ein Kandidat-Token vorhanden ist. Die ausgefüllten Differenzbilder werden vom Bildausfüller 262 und vom Bildausfüller 268 an die entsprechenden Token-Positionsanzeiger 264 und 270 ausgegeben. Außerdem werden die ausgefüllten Differenzbilder vom Bildausfüller 262 und vom Bildausfüller 268 auch an eine Standorterfassungsmaschine 276 ausgegeben. Ähnlich wie oben beim Beispiel von 4 beschrieben können die ausgefüllten Differenzbilder vom jeweiligen Token-Positionsanzeiger 264 und 270 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der ausgefüllten Differenzbilder und den Bildpunktort der jeweiligen Kandidat-Token zu bestimmen. Die Token-Positionsanzeiger 264 und 270 übertragen jeweils die Informationen über den zweidimensionalen Bildpunktort der jeweiligen Kandidat-Token an die Standorterfassungsmaschine 276.
  • Die Standorterfassungsmaschine 276 enthält einen Bildkorrelator 278 und eine Dimensionswandlungsmaschine 280. Der Bildkorrelator 278 empfängt die ausgefüllten Differenzbilder vom ersten und zweiten Bildausfüller 262 und 268 als Eingaben sowie die Informationen bezüglich des zweidimensionalen Bildpunktortes des Kandidat-Tokens vom Token-Positionsanzeiger 264 bzw. 270. Der Bildkorrelator 278 überlagert die ausgefüllten Differenzbilder an den Bildunktorten der jeweiligen Kandidat-Token, die vom Token-Positionsanzeiger 264 bzw. 270 übertragen werden. Der Bildkorrelator 278 wendet dann ähnlich wie der Bildkorrelator 200, der im obigen Beispiel von 5 beschrieben worden ist, einen Bildpunktschiebealgorithmus an, um die optimale Korrelation des Paares ausgefüllter Differenzbilder zu bestimmen. Da jedoch der Token-Detektor 258 für jedes der erfassten Bilder der ersten und zweiten Kamera 254 und 256 einen eigenen Kandidat-Token erkennt und somit getrennte Differenzbilder erzeugt, kann der Bildkorrelator 278 eine Korrelation zwischen den Differenzbildern direkt bestimmen. Mit anderen Worten, da der exakte Bildpunktort des Kandidat-Tokens aus beiden getrennten Differenzbildern bestimmt wird, ist es nicht erforderlich, dass die Standorterfassungsmaschine 276 den SLOG-Filterungsalgorithmus für die Korrelation anwendet. Damit können die Erzeugung des Korrelationsstandes und die Bildpunktverschiebung direkt im ausgefüllten Differenzbildpaar erfolgen.
  • Die Anzahl der Bildpunkte mit Versatz zwischen den ausgefüllten Differenzbildern zur optimalen Korrelation wird vom Bildkorrelator 278 an die Dimensionswandlungsmaschine 280 ausgegeben. Die Dimensionswandlungsmaschine 280 prüft den Bildpunktversatz in der Korrelation des ausgefüllten Differenzbildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe 252 entspricht. Die Entfernung kann dann zur Bestimmung des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings ähnlich wie oben im Beispiel von 4 beschrieben verwendet werden. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine 280 an einen dreidimensionalen Bewegungsrechner und/oder einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von 1 beschrieben worden ist.
  • 7 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems 300 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem 300 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe 302 mit einer ersten Kamera 304 und einer zweiten Kamera 306. Das Einbruchsicherungssystem 300 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor 308. Wie oben beim Beispiel von 4 beschrieben wird ein Differenzbild auf Basis eines Absolutwert-Bildpunktdifferenzalgorithmus erzeugt. Die Absolutwert-Bildpunktdifferenzen können auf der Struktur, der Helligkeit und dem Farbkontrast basieren, so dass das Differenzbild im Wesentlichen sämtliche Bildpunkte zeigt, die in jedem der erfassten Bilder von einer gegebenen Kamera und dem Hintergrundbild verschieden sind. Die Bildkomparatoren der Beispiele nach den 4 und 6 oben können deshalb auf Schatten und Helligkeitsänderungen, etwa bei Bewölkung, empfindlich reagieren, was möglicherweise zu falschen positiven Ergebnissen führt.
  • Der Token-Detektor 308 enthält ein erstes Bild-SLOG-Filter 310, einen ersten Komparator 312 für gefilterte Bilder und einen ersten Token-Positionsanzeiger 314. Ferner enthält der Token-Detektor 308 ein zweites Bild-SLOG-Filter 316, einen zweiten Komparator 318 für gefilterte Bilder und einen zweiten Token-Positionsanzeiger 320. Die von der ersten Kamera 304 erfassten visuellen Bilder werden an das erste Bild-SLOG-Filter 310 und die von der zweiten Kamera 306 erfassten visuellen Bilder an das zweite Bild-SLOG-Filter 316 ausgege ben. Das erste Bild-SLOG-Filter 310 und das zweite Bild-SLOG-Filter 316 können jeweils ein oder mehrere gefilterte Bilder der erfassten Bilder von der ersten und zweiten Kamera 304 und 306 erzeugen. So können beispielsweise das erste Bild-SLOG-Filter 310 und das zweite Bild-SLOG-Filter 316 ein gefiltertes Bild mit hoher Auflösung, ein gefiltertes Bild mit mittlerer Auflösung und ein gefiltertes Bild mit niedriger Auflösung erzeugen, wie oben beim Beispiel von 3 beschrieben worden ist.
  • Ein erster Hintergrundbildgenerator 322 erzeugt auf Basis der ersten Kamera 304 ein Hintergrundbild und gibt es an ein erstes Hintergrund-SLOG-Filter 324 aus. Das erste Hintergrund-SLOG-Filter 324 kann eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom ersten Bild-SLOG-Filter 310 erzeugt werden. Das erste Hintergrund-SLOG-Filter 324 kann z. B. ein gefiltertes Hintergrundbild mit hoher Auflösung, ein gefiltertes Hintergrundbild mit mittlerer Auflösung und ein gefiltertes Hintergrundbild mit niedriger Auflösung erzeugen, wobei jede Auflösung einer Auflösung der vom ersten Bild-SLOG-Filter 310 erzeugten gefilterten Bilder entspricht. Auf gleiche Weise erzeugt ein zweiter Hintergrundbildgenerator 326 auf Basis der zweiten Kamera 306 ein Hintergrundbild und gibt es an ein zweites Hintergrund-SLOG-Filter 328 aus. Das zweite Hintergrund-SLOG-Filter 328 kann eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom zweiten Bild-SLOG-Filter 316 erzeugt werden. Es versteht sich, dass sowohl der erste als auch der zweite Hintergrundbildgenerator 322 und 326 dem im Beispiel von 2 oben beschriebenen Hintergrundbildgenerator 50 im Wesentlichen ähnlich sein kann.
  • Der erste Bildkomparator 312 für gefilterte Bilder und der zweite Bildkomparator 318 für gefilterte Bilder sind so konfiguriert, dass sie die vom ersten Bild-SLOG-Filter 310 bzw. vom zweiten Bild-SLOG-Filter 316 erzeugten gefilterten Bilder mit den gefilterten Hintergrundbildern vergleichen, die vom ersten Hintergrund-SLOG-Filter 324 bzw. vom zweiten Hintergrund-SLOG-Filter 328 erzeugt werden. Um einen genaueren Vergleich zu erreichen, kann jedes der gefilterten Bilder mit der jeweiligen Auflösung gleichzeitig verglichen werden. Ähnlich wie beim Bildkomparator 160 im obigen Beispiel von 4 können sowohl der erste Bildkomparator 312 für gefilterte Bilder als auch der zweite Bildkomparator 318 für gefilterte Bilder einen Absolutwert-Bildpunktdifferenzalgorithmus anwenden, um entsprechende Differenzbilder zu erzeugen. Da jedoch die gefilterten erfassten Bilder und die gefilterten Hintergrundbilder nur binäre Strukturkontraste aufweisen, unterscheiden sich die Bildpunkte der Differenzbilder nur in der Struktur. Somit sind die Differenzbilder unempfindlich für Hellig keitsunterschiede und Farbkontraste zwischen den von der ersten und der zweiten Kamera 304 und 306 erfassten Bildern im Vergleich zu den jeweiligen Hintergrundbildern. Bei dem von jedem Komparator 312 und 318 für gefilterte Bilder ausgegebenen Differenzbild könnte es sich um getrennte Differenzbilder für jede Auflösung der gefilterten erfassten Bilder und der jeweiligen gefilterten Hintergrundbilder handeln. Alternativ könnte das von jedem Komparator 312 und 318 für gefilterte Bilder ausgegebene Differenzbild ein einzelnes Differenzbild sein, das auf dem Vergleich der gefilterten erfassten Bilder und der jeweiligen gefilterten Hintergrundbilder basiert.
  • Die Differenzbilder werden von den Komparatoren 312 und 318 für gefilterte Bilder an die jeweiligen Token-Positionsanzeiger 314 und 320 ausgegeben. Außerdem werden die Differenzbilder auch von den Komparatoren 312 und 318 für gefilterte Bilder an eine Standorterfassungsmaschine 330 ausgegeben. Ähnlich wie oben im Beispiel von 4 beschrieben können die Differenzbilder von den entsprechenden Token-Positionsanzeigern 314 und 320 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der Differenzbilder und den Bildpunktort der jeweiligen Kandidat-Token zu bestimmen. Im Beispiel von 7 werden die Bildpunkte, die die binären Strukturdifferenzen zwischen den gefilterten erfassten Bildern und den gefilterten Hintergrundbildern angeben, von den jeweiligen Token-Positionsanzeigern 314 und 320 als die Kandidat-Token markiert. Die Token-Positionsanzeiger 314 bzw. 320 übertragen die Informationen über den zweidimensionalen Bildpunktort der jeweiligen Kandidat-Token an die Standorterfassungsmaschine 330.
  • Die Standorterfassungsmaschine 330 enthält einen Bildkorrelator 332 und eine Dimensionswandlungsmaschine 334. Der Bildkorrelator 332 empfängt die Differenzbilder von den Komparatoren 312 und 318 für gefilterte Bilder als Eingaben sowie die Informationen bezüglich des zweidimensionalen Bildpunktortes des Kandidat-Tokens von den Token-Positionsanzeigern 314 und 320. Der Bildkorrelator 332 überlagert die Differenzbilder an den Bildunktorten der jeweiligen Kandidat-Token, die vom Token-Positionsanzeiger 314 bzw. 320 übertragen werden. Der Bildkorrelator 332 wendet dann ähnlich wie der im obigen Beispiel von 5 beschriebene Bildkorrelator 200 einen Bildpunktschiebealgorithmus an, um die optimale Korrelation des Paares der Differenzbilder zu bestimmen. Außerdem können ähnlich wie oben im Beispiel von 6 beschrieben die Korrelationsstanderzeugung und die Bildpunktverschiebung direkt im Differenzbildpaar erfolgen, da die erfassten Bilder bereits gefiltert worden sind.
  • Die Anzahl der Bildpunkte mit Versatz zwischen den Differenzbildern zur optimalen Korrelation wird vom Bildkorrelator 332 an die Dimensionswandlungsmaschine 334 ausgegeben. Die Dimensionswandlungsmaschine 334 prüft den Bildpunktversatz in der Korrelation des Differenzbildpaares und wandelt ihn in eine Maßeinheit, die dem Betrag der Entfernung des potentiellen Eindringlings zur Stereobilderfassungsstufe 302 entspricht. Die Entfernung kann dann zur Bestimmung des dreidimensionalen Standorts und der Größe des potentiellen Eindringlings ähnlich wie oben im Beispiel von 4 beschrieben verwendet werden. Die Daten des dreidimensionalen Standorts und der Größe können von der Dimensionswandlungsmaschine 334 an einen dreidimensionalen Bewegungsrechner und/oder einen Schwellenwertkomparator ausgegeben werden, wie oben anhand des Beispiels von 1 beschrieben worden ist.
  • 8 zeigt ein weiteres Beispiel eines Einbruchsicherungssystems 350 mit Stereokameraüberwachung gemäß einem Aspekt der Erfindung. Das Einbruchsicherungssystem 350 mit Stereokameraüberwachung enthält eine Stereobilderfassungsstufe 352 mit einer ersten Kamera 354 und einer zweiten Kamera 356. Das Einbruchsicherungssystem 350 mit Stereokameraüberwachung enthält außerdem einen Token-Detektor 358. Ähnlich wie beim obigen Beispiel von 7 enthält der Token-Detektor 358 ein erstes Bild-SLOG-Filter 360, einen ersten Komparator 362 für gefilterte Bilder und einen ersten Strukturdifferenz-Positionsanzeiger 364. Ferner enthält der Token-Detektor 358 ein zweites Bild-SLOG-Filter 366, einen zweiten Komparator 368 für gefilterte Bilder und einen zweiten Strukturdifferenz-Positionsanzeiger 370.
  • Die von der ersten Kamera 354 erfassten visuellen Bilder werden an das erste Bild-SLOG-Filter 360 und die von der zweiten Kamera 356 erfassten visuellen Bilder an das zweite Bild-SLOG-Filter 366 ausgegeben. Das erste Bild-SLOG-Filter 360 und das zweite Bild-SLOG-Filter 366 können jeweils ein oder mehrere gefilterte Bilder der erfassten Bilder von der ersten und zweiten Kamera 354 und 366 erzeugen. So können beispielsweise das erste Bild-SLOG-Filter 360 und das zweite Bild-SLOG-Filter 366 ein gefiltertes Bild mit hoher Auflösung, ein gefiltertes Bild mit mittlerer Auflösung und ein gefiltertes Bild mit niedriger Auflösung erzeugen, wie oben beim Beispiel von 3 beschrieben worden ist.
  • Ein erster Hintergrundbildgenerator 372 erzeugt auf Basis der ersten Kamera 354 ein Hintergrundbild und gibt es an ein erstes Hintergrund-SLOG-Filter 374 aus. Auf gleiche Weise erzeugt ein zweiter Hintergrundbildgenerator 376 ein Hintergrundbild auf Basis der zweiten Kamera 356 und gibt es an ein zweites Hintergrund-SLOG-Filter 378 aus. Es versteht sich, dass sowohl der erste als auch der zweite Hintergrundbildgenerator 372 und 376 dem im Beispiel von 2 oben beschriebenen Hintergrundbildgenerator 50 im Wesentlichen ähnlich sein kann. Wie nachstehend ausführlicher beschrieben wird, können jedoch der erste Hintergrundbildgenerator 372 und der zweite Hintergrundbildgenerator 376 so konfiguriert sein, dass sie das Hintergrundbild rasch aktualisieren. Ähnlich wie im Beispiel von 7 oben kann das erste Hintergrund-SLOG-Filter 374 und das zweite Hintergrund-SLOG-Filter 378 jeweils eine Anzahl gefilterter Bilder des Hintergrundbildes erzeugen, die gleich ist der Anzahl gefilterter Bilder, die vom ersten Bild-SLOG-Filter 360 bzw. vom zweiten Bild-SLOG-Filter 366 erzeugt werden.
  • Der erste Komparator 362 für gefilterte Bilder und der zweite Komparator 368 für gefilterte Bilder sind so konfiguriert, dass sie die vom ersten Bild-SLOG-Filter 360 bzw. vom zweiten Bild-SLOG-Filter 366 erzeugten gefilterten Bilder mit den gefilterten Hintergrundbildern vergleichen, die vom ersten Hintergrund-SLOG-Filter 374 bzw. vom zweiten Hintergrund-SLOG-Filter 378 erzeugt werden. Ähnlich wie beim Bildkomparator 160 im obigen Beispiel von 4 können sowohl der erste Komparator 362 für gefilterte Bilder als auch der zweite Komparator 368 für gefilterte Bilder einen Absolutwert-Bildpunktdifferenzalgorithmus anwenden, um entsprechende Differenzbilder zu erzeugen, die Bildpunkte enthalten, die sich nur in der Struktur unterscheiden. Ähnlich wie beim oben beschriebenen Beispiel von 7 sind die Differenzbilder unempfindlich für Helligkeitsunterschiede und Farbkontraste zwischen den von der ersten und der zweiten Kamera 354 und 356 erfassten Bildern im Vergleich zu den jeweiligen Hintergrundbildern.
  • Die Differenzbilder werden von den Komparatoren 362 und 368 für gefilterte Bilder an die jeweiligen Strukturdifferenz-Positionsanzeiger 364 und 370 ausgegeben. Ähnlich wie oben im Beispiel von 4 beschrieben können die Differenzbilder vom Strukturdifferenz-Positionsanzeiger 364 bzw. 370 geprüft werden, um Strukturdifferenzen in jedem der Differenzbilder und den Bildpunktort der jeweiligen Strukturdifferenz zu bestimmen. Da jedoch die gefilterten Differenzbilder auf Vergleichen der gefilterten Bilder mit niedriger Auflösung basieren und/oder diese enthalten können, können die Strukturdifferenzen in den jeweiligen gefilterten Differenzbildern scheinbar eine niedrigere Auflösung als die von den Kameras 354 und 356 erfasste Bilder haben. Mit anderen Worten, ein einziger markierter Strukturunterschied könnte mehreren Bildpunkten in einem von den Kameras 354 bzw. 356 erfassten Bildern entsprechen. Im Beispiel von 8 überträgt der erste Strukturdifferenz-Positions anzeiger 364 die Informationen über den zweidimensionalen Ort der Texturdifferenzen an den ersten Hintergrundbildgenerator 372 und der zweite Strukturdifferenz-Positionsanzeiger 370 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an den zweiten Hintergrundbildgenerator 376.
  • Der erste Hintergrundbildgenerator 372 kann ferner so konfiguriert sein, dass er die Informationen über den zweidimensionalen Ort der Strukturdifferenzen vom ersten Strukturdifferenz-Positionsanzeiger 364 empfängt, um das erste Hintergrundbild rasch zu aktualisieren. Der zweite Hintergrundbildgenerator 376 kann gleichermaßen ferner so konfiguriert sein, dass er die Informationen über den zweidimensionalen Ort der Strukturdifferenzen vom zweiten Strukturdifferenz-Positionsanzeiger 370 empfängt, um das zweite Hintergrundbild rasch zu aktualisieren. So kann z. B. der erste und der zweite Hintergrundbildgenerator 372 bzw. 376 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an einem Hintergrundbildaktualisierer 56 im Beispiel von 2 empfangen.
  • Wie oben beschrieben könnte eine einzige markierte Differenz in einem gefilterten Differenzbild mehreren Bildpunkten eines von einer der Kameras 354 bzw. 356 erfassten Bilder entsprechen. Es versteht sich deshalb, dass der jeweilige Hintergrundbildgenerator 372 bzw. 372 die zweidimensionalen Standortinformationen mit niedriger Auflösung in einen tatsächlichen Bildpunktort in einem von einer der Kameras 345 bzw. 356 erfassten Bild übersetzen kann. Somit kann der erste Hintergrundbildgenerator 372 sämtliche Bildpunkte des Hintergrundbildes mit einem von der ersten Kamera 354 erfassten Bild mit Ausnahme der dem zweidimensionalen Ort der Strukturdifferenzen entsprechenden Bildpunkte aktualisieren. In gleicher Weise kann der zweite Hintergrundbildgenerator 376 sämtliche Bildpunkte des Hintergrundbildes mit einem von der zweiten Kamera 356 erfassten Bild mit Ausnahme der dem zweidimensionalen Ort der Strukturdifferenzen entsprechenden Bildpunkte aktualisieren. Es versteht sich, dass die rasche Aktualisierung der Hintergrundbilder auf Basis der gefilterten Differenzbilder zusätzlich zu der oder anstelle von der allmählichen Aktualisierung des erfassten Hintergrundbildes 54 durch den Hintergrundbildaktualisierer 56 erfolgen kann, wie im Beispiel von 2 beschrieben worden ist.
  • Außer den oben beschriebenen Komponenten enthält der Token-Detektor 358 einen ersten Bildkomparator 380, einen ersten Bildausfüller 382 und einen ersten Token-Positionsanzeiger 384. Ferner enthält der Token-Detektor 358 einen zweiten Bildkomparator 386, einen zweite Bildausfüller 388 und einen zweite Token-Positionsanzeiger 390. Nachdem das erste bzw. zweite Hintergrundbild rasch aktualisiert worden ist, werden das erfasste Bild von der ersten Kamera 354 sowie das erste aktualisierte Hintergrundbild in den ersten Bildkomparator 380 eingegeben. In gleicher Weise werden das erfasste Bild von der zweiten Kamera 356 sowie das zweite aktualisierte Hintergrundbild in den zweiten Bildkomparator 386 eingegeben.
  • Ähnlich wie der Bildkomparator 160 im obigen Beispiel von 4 wenden der erste und der zweite Bildkomparator 380 und 386 jeweils einen Absolutwert-Bildpunktdifferenzalgorithmus an, um entsprechende Differenzbilder zu erzeugen. Es versteht sich jedoch, dass die jeweiligen erfassten Bilder von der ersten und der zweiten Kamera 354 und 356 die gleichen Bilder sein können, die zur raschen Aktualisierung der Hintergrundbilder durch den ersten bzw. zweiten Hintergrundbildgenerator 372 bzw. 376 verwendet wurden. Somit sind sämtliche Bildpunkte des erfassten Bildes im Wesentlichen identisch mit den gleichen Bildpunkten im entsprechenden Hintergrundbild mit Ausnahme der Bildpunkte am zweidimensionalen Ort der Strukturdifferenzen. Deshalb können die von den Bildkomparatoren 380 bzw. 386 erzeugten Differenzbilder nur die zeigen, die zwischen den erfassten Bildern von den Kameras 354 und 356 und den jeweiligen Hintergrundbildern an den jeweiligen zweidimensionalen Orten der Strukturdifferenzen verschieden sind. Demzufolge reagiert das Einbruchsicherungssystem 350 mit Stereokameraüberwachung weniger anfällig auf eine falsche positive Erkennung eines Eindringlings, da die Differenzbilder Unterschiede der Orte kleiner Strukturdifferenzen nicht anzeigen. Außerdem ist das Einbruchsicherungssystem 350 mit Stereokameraüberwachung wegen der redundanten Erzeugung von Differenzbildern ein robusteres System für die Erkennung von Eindringlingen.
  • Der erste Bildausfüller 382 und der zweite Bildausfüller 388 können jeweils einen Bildpunktausfüllalgorithmus auf die jeweiligen Differenzbilder anwenden, so dass bestimmt werden kann, ob in den jeweiligen Differenzbildern ein Kandidat-Token vorhanden ist. Die ausgefüllten Differenzbilder werden von den Bildausfüllern 382 und 388 an die Token-Positionsanzeiger 384 bzw. 390 ausgegeben. Die ausgefüllten Differenzbilder können vom Token-Positionsanzeiger 384 bzw. 390 geprüft werden, um das Vorhandensein eines Kandidat-Tokens in jedem der ausgefüllten Differenzbilder zu bestimmen. Außerdem können die ausgefüllten Differenzbilder von den Bildausfüllern 382 und 388 an eine Standorterfassungsmaschine (nicht dargestellt) ähnlich der oben anhand des Beispiels von 6 beschriebenen ausgegeben werden. Ferner kann jeder der Token-Positionsanzeiger 384 und 390 die Informationen über den zweidimensionalen Bildpunktort des jeweiligen Kandidat-Tokens auch an eine Standorterfassungsmaschine übertragen.
  • Es versteht sich, dass das Einbruchsicherungssystem 350 mit Stereokameraüberwachung nicht auf das Beispiel von 8 beschränkt ist. Es können beispielsweise ein oder alle beschriebenen Geräte des Token-Detektors 358 miteinander integriert werden. Bei einem anderen Beispiel könnten die Strukturdifferenz-Positionsanzeiger 364 und 370 die Informationen über den zweidimensionalen Ort der Strukturdifferenzen an die Bildkomparatoren 380 und 386 übertragen, anstelle den Hintergrund rasch zu aktualisieren. Damit könnten die Bildkomparatoren 380 und 386 die Bildpunktdifferenz nur an den Orten der Strukturdifferenzen vergleichen, die von den Strukturdifferenz-Positionsanzeigern 364 und 370 übertragen werden.
  • Angesichts der obig beschriebenen strukturellen und funktionalen Kennzeichen erschließt sich die Methodik gemäß den verschiedenen Aspekten der vorliegenden Erfindung klarer aus 9. Obwohl wegen der Vereinfachung der Erläuterung die Methodik in 9 als serielle Ausführung dargestellt und beschrieben wird, versteht es sich, dass die vorliegende Erfindung nicht auf die dargestellte Reihenfolge beschränkt ist, da manche Aspekte gemäß der vorliegenden Erfindung in einer anderen Reihenfolge als der dargestellten und beschriebenen und/oder gleichzeitig mit anderen Aspekten ablaufen. Ferner sind möglicherweise nicht alle der dargestellten Kennzeichen erforderlich, um die Methodik gemäß einem Aspekt der Erfindung zu implementieren.
  • 9 zeigt ein Beispiel eines Verfahrens 400 zur Erkennung von Eindringlingen in einem überwachten Bereich gemäß einem Aspekt der Erfindung. Bei 402 werden erste Bilder des überwachten Bereichs von einer ersten Kamera und zweite Bilder des überwachten Bereichs von einer zweiten Kamera erfasst. Die erste und die zweite können beide digitale Kameras sein, so dass die erste und die zweite Kamera relativ zueinander im Stereomodus arbeiten. Bei 404 wird ein Hintergrundbild des überwachten Bereichs erstellt. Das Hintergrundbild kann auf einem oder mehreren von der ersten Kamera erfassten Bildern basieren. Für die erste und die zweite Kamera kann jeweils ein eigenes Hintergrundbild erhalten werden. Bei 406 wird das Hintergrundbild senkrecht und waagrecht auf die erfassten Bilder ausgerichtet. Die senkrechte und waagrechte Ausrichtung kann durch Anwenden eines Filterungsalgorithmus wie eines SLOG-Filterungsalgorithmus sowohl auf das Hintergrundbild als auch auf das erfasste Bild erreicht werden. Das gefilterte Hintergrundbild und das gefilterte erfasste Bild können dann auf Basis einer Bildpunktverschiebung und der Erzeugung eines Korrelationsstandes für jede Verschiebung korreliert werden.
  • Bei 408 werden Bildpunkte der erfassten Bilder mit Bildpunkten des Hintergrundbildes verglichen, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen. Zum Vergleich mit den jeweiligen Hintergrundbildern könnten sowohl die ersten als auch die zweiten erfassten Bilder dienen. Alternativ könnten die erfassten Bilder nur die ersten erfassten Bilder sein, die mit einem einzigen Hintergrundbild verglichen werden. Außerdem können die erfassten Bilder und die jeweiligen Hintergrundbilder gefiltert werden, so dass die gefilterten erfassten Bilder mit den jeweiligen gefilterten Hintergrundbildern verglichen werden.
  • Bei 410 werden dreidimensionale Kennzeichen, die zum potentiellen Eindringling gehören, bestimmt. Die Bestimmung kann auf der Korrelierung gefilterter Versionen der erfassten Bilder basieren, die auf dem Vergleich der erfassten Bilder mit dem Hintergrundbild basieren. Die Korrelation kann auf der Erzeugung von Korrelationsständen für jede Verschiebung eines Bildpunktschiebealgorithmus basieren. Die Korrelierung kann auch zwischen zwei verschiedenen Differenzbildern erfolgen. Der Betrag des Bildpunktversatzes zwischen den ersten und zweiten Bildern kann in einen dreidimensionalen Standort und die Größe des potentiellen Eindringlings übersetzt werden.
  • Bei 412 wird eine Meldeeinrichtung aktiviert, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen Schwellenwert überschreiten. Der Schwellenwert könnte der Größe und/oder dem Standort des potentiellen Eindringlings entsprechen. Ferner kann der Standort des potentiellen Eindringlings über mehrere der ersten und zweiten Bilder der ersten und zweiten Kamera so verfolgt werden, dass die dreidimensionale Bewegungsrichtung und die Geschwindigkeit bestimmt werden können. Ein anderer Schwellenwert könnte deshalb die Geschwindigkeit oder Bewegung zu einem vordefinierten dreidimensionalen Raum sein.
  • Es wurden Beispiele der vorliegenden Erfindung beschrieben. Natürlich ist es nicht möglich, jede denkbare Kombination aus Komponenten und Methoden im Rahmen der Beschreibung der vorliegenden Erfindung zu erläutern, aber für den Durchschnittsfachmann ist erkennbar, dass zahlreiche weitere Kombinationen und Modifikationen der vorliegenden Erfindung möglich sind. Die vorliegende Erfindung soll daher alle diese Änderungen, Modifikationen und Variationen erfassen, die von Geist und Gültigkeitsbereich der beigefügten Ansprüche abgedeckt sind.

Claims (28)

  1. Einbruchsicherungssystem mit: einer ersten Kamera, die zum Erzeugen erster Bilder eines überwachten Bereichs konfiguriert ist; einer zweiten Kamera, die zum Erzeugen zweiter Bilder des überwachten Bereichs konfiguriert ist; einem Detektionsgerät, das zum Vergleichen der ersten Bilder mit einem Hintergrundbild des überwachten Bereichs konfiguriert ist, wobei das Detektionsgerät Unterschiede zwischen den ersten Bildern und dem Hintergrundbild als einen potentiellen Eindringling markiert; und einem Verfolgungsgerät, das zum Auswerten jedes der ersten Bilder relativ zu jedem der zweiten Bilder konfiguriert ist, um dreidimensionale zum potentiellen Eindringling gehörige Kennzeichen zu bestimmen.
  2. System nach Anspruch 1, bei dem die dreidimensionalen Kennzeichen Standort, Größe und Bewegung aufweisen, und das ferner eine Meldeeinrichtung aufweist, wobei das Verfolgungsgerät außerdem so konfiguriert ist, dass es die Meldeeinrichtung aktiviert, wenn mindestens eines der Kennzeichen Standort, Größe und Bewegung, die zum potentiellen Eindringling gehören, einen entsprechenden Schwellenwert überschreitet.
  3. System nach Anspruch 1, bei dem das Verfolgungsgerät einen Schwellenwertkomparator aufweist, der so konfiguriert ist, dass ein Benutzer des Einbruchsicherungssystems mindestens einen dreidimensionalen Raum im überwachten Bereich einrichten kann, wobei der mindestens eine dreidimensionale Raum ein Schwellenwertraum ist, so dass eine Bewegung in den und zu dem mindestens einen dreidimensionalen Raum die Meldeeinrichtung aktiviert, sowie eine Nullzone derart, dass Unterschiede zwischen den ersten Bildern und dem Hintergrundbild im überwachten Raum die Meldeeinrichtung nicht aktivieren.
  4. System nach Anspruch 1, bei dem die erste und die zweite Kamera jeweils stationär auf etwa Bodenhöhe installiert sind.
  5. System nach Anspruch 1, bei dem das Hintergrundbild ein erstes von der ersten Kamera erzeugtes Hintergrundbild ist, und bei dem das Detektionsgerät ferner so konfiguriert ist, dass es die zweiten Bilder mit einem zweiten Hintergrundbild des überwachten Bereichs vergleicht, wobei das zweite Hintergrundbild von der zweiten Kamera erzeugt wird, und das Detektionsgerät ferner so konfiguriert ist, dass es Unterschiede zwischen den zweiten Bildern und dem Hintergrundbild als den potentiellen Eindringling markiert.
  6. System nach Anspruch 5, bei dem das erste Hintergrundbild, das zweite Hintergrundbild, die ersten Bilder und die zweiten Bilder gefiltert werden, um Strukturkontrastmuster anzuzeigen, wobei das Detektionsgerät so konfiguriert ist, dass es die ersten gefilterten Bilder mit dem ersten gefilterten Hintergrundbild und die zweiten gefilterten Bilder mit dem zweiten gefilterten Hintergrundbild vergleicht und Unterschiede zwischen den ersten gefilterten Bilder und dem ersten gefilterten Hintergrundbild sowie Unterschiede zwischen dem zweiten gefilterten Bilder und dem zweiten gefilterten Hintergrundbild als den potentiellen Eindringling markiert.
  7. System nach Anspruch 6, bei dem das erste Hintergrundbild auf Basis der Unterschiede zwischen den ersten gefilterten Bildern und dem ersten gefilterten Hintergrundbild und das zweite Hintergrundbild auf Basis der Unterschiede zwischen den zweiten gefilterten Bildern und dem zweiten gefilterten Hintergrundbild aktualisiert wird, und bei dem das Detektionsgerät ferner so konfiguriert ist, dass es die Unterschiede zwischen den ersten Bildern und dem aktualisierten ersten Hintergrundbild sowie zwischen den zweiten Bildern und dem aktualisierten zweiten Hintergrundbild als den potentiellen Eindringling markiert.
  8. System nach Anspruch 1, ferner einen Hintergrundbildgenerator aufweisend, der zum Erzeugen des Hintergrundbildes des überwachten Bereichs konfiguriert ist, wobei der Hintergrundbildgenerator einen Hintergrundstabilisierer aufweist, der zum Korrelieren der zu den ersten Bildern gehörigen Bildpunkte mit den zum Hintergrundbild gehörigen Bildpunkten konfiguriert ist, so dass die zu den ersten Bildern gehörigen Bildpunkte senkrecht und waagrecht auf die zum Hintergrundbild gehörigen Bildpunkte ausgerichtet werden, bevor das Detektionsgerät Unterschiede zwischen den zu den ersten Bildern gehörigen Bildpunkte und den zum Hintergrundbild gehörigen Bildpunkten als den potentiellen Eindringling markiert.
  9. System nach Anspruch 1, bei dem das Verfolgungsgerät einen Bildkorrelator aufweist, der zum Vergleichen jedes der ersten Bilder mit einem entsprechenden Bild der zweiten Bilder konfiguriert ist, um den Standort und die Größe des potentiellen Eindringlings im dreidimensionalen Raum auf Basis einer Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings in einem gegeben Bild der ersten Bilder relativ zum zweidimensionalen Standort des potentiellen Eindringlings im entsprechenden Bild der zweiten Bilder zu bestimmen.
  10. System nach Anspruch 9, bei dem der Bildkorrelator aufweist: ein Bildüberlagerungsgerät, das so konfiguriert ist, dass es ein gegebenes Bild der ersten Bilder einem entsprechenden Bild der zweiten Bilder überlagert, so dass der zweidimensionale Standort des potentiellen Eindringlings auf einem gegebenen Bild der ersten Bilder einen ungefähren Ort des zweidimensionalen Standorts des potentiellen Eindringlings auf dem entsprechenden Bild der zweiten Bilder schneidet; ein iteratives Bildpunktschiebegerät, das so konfiguriert ist, dass es das gegebene Bild der ersten Bilder relativ zum entsprechenden Bild der zweiten Bilder wiederholt um einen Bildpunkt je Verschiebung verschiebt; und einen Korrelationsrechner, der so konfiguriert ist, dass er einen Korrelationsstand für jede Verschiebung bestimmt, so dass die Parallaxenverschiebung der jeweiligen zweidimensionalen Standorte des potentiellen Eindringlings auf Basis einer gegebenen Verschiebung bestimmt wird, die den höchsten Korrelationsstand ergibt.
  11. System nach Anspruch 10, bei dem das Verfolgungsgerät eine Mehrzahl Filter aufweist, die so konfiguriert sind, dass sie mindestens ein gefiltertes Bild erzeugen, das zu jedem der ersten Bilder gehört, und mindestens ein zweites gefiltertes Bild, das zu jedem der zweiten Bilder gehört, wobei jedes Bild des mindestens einen ersten gefilterten Bildes eine Auflösung hat, die mit einem entsprechenden Bild des mindestens einen zweiten gefilterten Bildes übereinstimmt, wobei das Bildüberlagerungsgerät und das iterative Bildpunktschiebegerät so konfiguriert sind, dass sie das mindestens eine übereinstimmende Paar aus dem mindestens einen ersten gefilterten Bild und dem mindestens einen zweiten gefilterten Bild überlagern und wiederholt verschieben.
  12. Verfahren zum Erkennen von Eindringlingen in einem überwachten Bereich, wobei das Verfahren aufweist: Erfassen erster Bilder des überwachten Bereichs mit einer ersten Kamera und zweiter Bilder des überwachten Bereichs mit einer zweiten Kamera; Erzeugen eines Hintergrundbildes des überwachten Bereichs; Korrelieren erster zu den ersten Bildern gehörigen Bildpunkte mit zweiten zum Hintergrundbild des überwachten Bereichs gehörigen Bildpunkten in der Weise, dass die ersten Bildpunkte waagrecht und senkrecht auf die zweiten Bildpunkte ausgerichtet werden; Vergleichen der ersten Bilder und des Hintergrundbildes des überwachten Bereichs, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen; Bestimmen dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis eines relativen Vergleichs der ersten Bilder und der zweiten Bilder; und Aktivieren einer Meldeeinrichtung, wenn die dreidimensionalen Kennzeichen des potentiellen Eindringlings mindestens einen vorgegebenen Schwellenwert überschreiten.
  13. Verfahren nach Anspruch 12, bei dem die Bestimmung der dreidimensionalen Kennzeichen des potentiellen Eindringlings die Bestimmung der Parallaxenverschiebung des potentiellen Eindringlings in jedem der ersten Bilder relativ zu den entsprechenden zweiten Bildern aufweist.
  14. Verfahren nach Anspruch 13, bei dem die Bestimmung der Parallaxenverschiebung die Überlagerung jedes der ersten Bilder über ein entsprechendes Bild der zweiten Bilder an entsprechenden ungefähren zweidimensionalen Standorten des potentiellen Eindringlings und Verschieben der ersten Bilder relativ zu einem der zweiten Bilder aufweist, bis eine gute Korrelation gefunden wird.
  15. Verfahren nach Anspruch 13, ferner das Erzeugen mindestens eines ersten gefilterten Bildes, das zu jeden der ersten Bilder gehört, und mindestens eines zweiten gefilterten Bildes, das zu jedem der zweiten Bilder gehört, aufweisend, wobei jedes Bild ein übereinstimmendes Paar mit einem entsprechenden Bild des mindestens einen zweiten gefilterten Bildes bildet, das eine im Wesentlichen gleiche Auflösung hat.
  16. Verfahren nach Anspruch 15, bei dem die Bestimmung der dreidimensionalen Kennzeichen des potentiellen Eindringlings eine gleiche Korrelierung jedes des mindestens einen übereinstimmenden Paares aufweist, um die Parallaxenverschiebung des potentiellen Eindringlings zu bestimmen.
  17. Verfahren nach Anspruch 16, bei dem die gleiche Korrelierung aufweist: gleiches Verschieben um einen Bildpunkt jedes des mindestens einen ersten gefilterten Bildes relativ zum jeweils gepaarten des mindestens einen zweiten gefilterten Bildes; Erzeugen eines aggregierten Korrelationsstandes bei jeder Bildpunktverschiebung, wobei der aggregierte Korrelationsstand einen Korrelationsstand jedes des mindestens einen übereinstimmenden Paares aufweist; und Vergleichen des aggregierten Korrelationsstandes bei jeder Bildpunktverschiebung, um die Bildpunktverschiebung mit dem höchsten aggregierten Korrelationsstand zu bestimmen.
  18. Verfahren nach Anspruch 12, bei dem das Erzeugen des Hintergrundbildes das Erzeugen eines ersten Hintergrundbildes des überwachten Bereichs auf Basis der ersten Kamera und ferner das Erzeugen eines zweiten Hintergrundbildes des überwachten Bereichs auf Basis der zweiten Kamera sowie das Vergleichen der zweiten Bilder und des zweiten Hintergrundbildes des überwachten Bereichs aufweist, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen.
  19. Verfahren nach Anspruch 18, ferner das Filtern der ersten Bilder, der zweiten Bilder, des ersten Hintergrundbildes und des zweiten Hintergrundbildes aufweisend, wobei das Vergleichen der ersten Bilder und des ersten Hintergrundbildes das Vergleichen der ersten gefilterten Bilder und des ersten gefilterten Hintergrundbildes und das Vergleichen der zweiten Bilder und des zweiten gefilterten Hintergrundbildes aufweist, und bei dem das Vergleichen der zweiten gefilterten Bilder und des zweiten gefilterten Hintergrundbildes das Vergleichen der zweiten gefilterten Bilder und des zweiten gefilterten Hintergrundbildes aufweist.
  20. Verfahren nach Anspruch 19, ferner aufweisend: Aktualisieren des ersten Hintergrundbildes auf Basis des Vergleichs zwischen den ersten gefilterten Bildern und dem ersten gefilterten Hintergrundbild; Aktualisieren des zweiten Hintergrundbildes auf Basis des Vergleichs zwischen den zweiten gefilterten Bildern und dem zweiten gefilterten Hintergrundbild; Vergleichen der ersten Bilder mit dem aktualisierten ersten Hintergrundbild, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen; und Vergleichen der zweiten Bilder mit dem aktualisierten zweiten Hintergrundbild, um die Anwesenheit eines potentiellen Eindringlings zu bestimmen.
  21. Verfahren nach Anspruch 12, bei dem die Bestimmung der dreidimensionalen Kennzeichen die Bestimmung eines Standorts, einer Größe und einer Bewegung des potentiellen Eindringlings auf Basis von Unterschieden zwischen den ersten Bildern und dem Hintergrundbild aufweist.
  22. Verfahren nach Anspruch 12, ferner das Einrichten mindestens eines dreidimensionalen Raums im überwachten Bereich aufweisend, so dass der mindestens eine dreidimensionale Raum ein Raum mit einem Schwellenwertraum und einer Nullzone ist, in der die Meldeeinrichtung aktiviert bzw. nicht aktiviert wird.
  23. Einbruchsicherungssystem mit: Mitteln zur gleichzeitigen Erfassung erster Bilder und zweiter Bilder eines überwachten Bereichs; Mitteln zur kontinuierlichen Erzeugung eines Hintergrundbildes des überwachten Bereichs; Mitteln zum Erkennen eines potentiellen Eindringlings auf Basis der Unterschiede zwischen den ersten Bildern und dem Hintergrundbild; Mitteln zum Bestimmen dreidimensionaler Kennzeichen des potentiellen Eindringlings auf Basis der ersten Bilder und der zweiten Bilder; und Mitteln zum Aktivieren einer Meldeeinrichtung auf Basis der dreidimensionalen Kennzeichen des potentiellen Eindringlings.
  24. System nach Anspruch 23, bei dem die dreidimensionalen Kennzeichen Standort, Größe und Bewegung aufweisen.
  25. System nach Anspruch 23, bei dem die Mittel zum Bestimmen der dreidimensionalen Kennzeichen des potentiellen Eindringlings Mittel zum Bestimmen der Parallaxenverschiebung des zweidimensionalen Standorts des potentiellen Eindringlings auf einem gegebenen Bild der ersten Bilder relativ zum zweidimensionalen Standort des potentiellen Eindringlings im entsprechenden Bild der zweiten Bilder aufweisen.
  26. System nach Anspruch 25, bei dem die Mittel zum Bestimmen der Parallaxenverschiebung Mittel zum Erzeugen einer Mehrzahl erster gefilterter Bilder auf Basis der ersten Bilder und einer Mehrzahl zweiter gefilterter Bilder auf Basis der zweiten Bilder aufweisen, wobei jedes Bild der Mehrzahl erster gefilterter Bilder ein übereinstimmendes Paar mit einem entsprechenden Bild der Mehrzahl zweiter gefilterter Bilder mit einer im Wesentlichen gleichen Auflösung bildet.
  27. System nach Anspruch 26, bei dem die Mittel zum Bestimmen der Parallaxenverschiebung ferner Mittel zum Verschieben um einen Bildpunkt jedes Bildes der ersten gefilterten Bilder relativ zum jeweils gepaarten Bild der Mehrzahl zweiter gefilterter Bilder und Mittel zum Erzeugen eines aggregierten Korrelationsstandes für jede Bildpunktverschiebung auf Basis eines Korrelationsstand einen Korrelationsstand jedes Paares der Mehrzahl übereinstimmender Paare aufweisen, wobei die Parallaxenverschiebung zur Bildpunktverschiebung mit dem höchsten aggregierten Korrelationsstand gehört.
  28. System nach Anspruch 23, ferner Mittel zum waagrechten und senkrechten Ausrichten der zu den ersten Bildern und dem Hintergrundbild gehörigen Bildpunkte vor der Operation des Mittels zum Erkennen des potentiellen Eindringlings aufweisend.
DE102007037647.4A 2006-08-10 2007-08-09 Einbruchsicherungssystem mit Stereokameraüberwachung Expired - Fee Related DE102007037647B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/502,229 2006-08-10
US11/502,229 US8432448B2 (en) 2006-08-10 2006-08-10 Stereo camera intrusion detection system

Publications (2)

Publication Number Publication Date
DE102007037647A1 true DE102007037647A1 (de) 2008-05-21
DE102007037647B4 DE102007037647B4 (de) 2019-06-19

Family

ID=38543262

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007037647.4A Expired - Fee Related DE102007037647B4 (de) 2006-08-10 2007-08-09 Einbruchsicherungssystem mit Stereokameraüberwachung

Country Status (5)

Country Link
US (1) US8432448B2 (de)
JP (1) JP2008140370A (de)
DE (1) DE102007037647B4 (de)
FR (1) FR2908546B1 (de)
GB (1) GB2440826B (de)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9038108B2 (en) 2000-06-28 2015-05-19 Verizon Patent And Licensing Inc. Method and system for providing end user community functionality for publication and delivery of digital media content
US8990214B2 (en) * 2001-06-27 2015-03-24 Verizon Patent And Licensing Inc. Method and system for providing distributed editing and storage of digital media over a network
US8972862B2 (en) * 2001-06-27 2015-03-03 Verizon Patent And Licensing Inc. Method and system for providing remote digital media ingest with centralized editorial control
US20060236221A1 (en) * 2001-06-27 2006-10-19 Mci, Llc. Method and system for providing digital media management using templates and profiles
US7970260B2 (en) * 2001-06-27 2011-06-28 Verizon Business Global Llc Digital media asset management system and method for supporting multiple users
US9401080B2 (en) 2005-09-07 2016-07-26 Verizon Patent And Licensing Inc. Method and apparatus for synchronizing video frames
US9076311B2 (en) * 2005-09-07 2015-07-07 Verizon Patent And Licensing Inc. Method and apparatus for providing remote workflow management
US8631226B2 (en) * 2005-09-07 2014-01-14 Verizon Patent And Licensing Inc. Method and system for video monitoring
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
JP5212839B2 (ja) * 2007-06-14 2013-06-19 日本電気株式会社 監視システム、及び監視方法
US8063375B2 (en) * 2007-06-22 2011-11-22 Intel-Ge Care Innovations Llc Sensible motion detector
US7782364B2 (en) * 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
WO2010002237A2 (en) * 2008-06-30 2010-01-07 Mimos Berhad Intrusion detection using parallax information
EP2364575B1 (de) 2008-11-17 2016-01-27 Express Imaging Systems, LLC Elektronische regelung zum regeln der stromversorgung für festkörper-beleuchtung und verfahren hierfür
WO2010127138A2 (en) * 2009-05-01 2010-11-04 Express Imaging Systems, Llc Gas-discharge lamp replacement with passive cooling
US8541950B2 (en) 2009-05-20 2013-09-24 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
US8872964B2 (en) 2009-05-20 2014-10-28 Express Imaging Systems, Llc Long-range motion detection for illumination control
US20110019243A1 (en) * 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
JP5530773B2 (ja) * 2010-03-19 2014-06-25 株式会社Ihiエアロスペース ステレオカメラによる平面検出方法とこの方法を用いた移動ロボット
US20110292213A1 (en) * 2010-05-26 2011-12-01 Lacey James H Door mountable camera surveillance device and method
US8901825B2 (en) 2011-04-12 2014-12-02 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
AU2011201953B2 (en) * 2011-04-29 2013-09-19 Canon Kabushiki Kaisha Fault tolerant background modelling
CN103649994B (zh) 2011-07-05 2016-11-16 欧姆龙株式会社 用于投影体监测的方法和装置
US8610358B2 (en) 2011-08-17 2013-12-17 Express Imaging Systems, Llc Electrostatic discharge protection for luminaire
US8629621B2 (en) 2011-08-24 2014-01-14 Express Imaging Systems, Llc Resonant network for reduction of flicker perception in solid state lighting systems
US9501692B2 (en) * 2011-10-14 2016-11-22 Omron Corporation Method and apparatus for projective volume monitoring
US8922124B2 (en) 2011-11-18 2014-12-30 Express Imaging Systems, Llc Adjustable output solid-state lamp with security features
US9360198B2 (en) 2011-12-06 2016-06-07 Express Imaging Systems, Llc Adjustable output solid-state lighting device
US9497393B2 (en) 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
JP5950628B2 (ja) * 2012-03-07 2016-07-13 株式会社日立国際電気 物体検知装置、物体検知方法及びプログラム
US9210751B2 (en) 2012-05-01 2015-12-08 Express Imaging Systems, Llc Solid state lighting, drive circuit and method of driving same
US9204523B2 (en) 2012-05-02 2015-12-01 Express Imaging Systems, Llc Remotely adjustable solid-state lamp
US10002297B2 (en) * 2012-06-20 2018-06-19 Imprivata, Inc. Active presence detection with depth sensing
US9131552B2 (en) 2012-07-25 2015-09-08 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
US8878440B2 (en) 2012-08-28 2014-11-04 Express Imaging Systems, Llc Luminaire with atmospheric electrical activity detection and visual alert capabilities
US8896215B2 (en) 2012-09-05 2014-11-25 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US8995718B2 (en) * 2012-10-11 2015-03-31 Ittiam Systems (P) Ltd. System and method for low complexity change detection in a sequence of images through background estimation
US9301365B2 (en) 2012-11-07 2016-03-29 Express Imaging Systems, Llc Luminaire with switch-mode converter power monitoring
US9210759B2 (en) 2012-11-19 2015-12-08 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
WO2014092549A2 (en) * 2012-12-13 2014-06-19 Mimos Berhad System and method for moving object extraction using stereo vision
US9288873B2 (en) 2013-02-13 2016-03-15 Express Imaging Systems, Llc Systems, methods, and apparatuses for using a high current switching device as a logic level sensor
US9466443B2 (en) 2013-07-24 2016-10-11 Express Imaging Systems, Llc Photocontrol for luminaire consumes very low power
US9414449B2 (en) 2013-11-18 2016-08-09 Express Imaging Systems, Llc High efficiency power controller for luminaire
US9185777B2 (en) 2014-01-30 2015-11-10 Express Imaging Systems, Llc Ambient light control in solid state lamps and luminaires
US20150334299A1 (en) * 2014-05-14 2015-11-19 Panasonic Intellectual Property Management Co., Ltd. Monitoring system
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US9572230B2 (en) 2014-09-30 2017-02-14 Express Imaging Systems, Llc Centralized control of area lighting hours of illumination
WO2016064542A1 (en) 2014-10-24 2016-04-28 Express Imaging Systems, Llc Detection and correction of faulty photo controls in outdoor luminaires
US9462662B1 (en) 2015-03-24 2016-10-04 Express Imaging Systems, Llc Low power photocontrol for luminaire
CN107637064A (zh) 2015-06-08 2018-01-26 深圳市大疆创新科技有限公司 用于图像处理的方法和设备
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
CN104966062B (zh) * 2015-06-17 2021-03-23 浙江大华技术股份有限公司 视频监视方法和装置
CN104954747B (zh) * 2015-06-17 2020-07-07 浙江大华技术股份有限公司 视频监视方法和装置
EP3311562A4 (de) * 2015-06-17 2018-06-20 Zhejiang Dahua Technology Co., Ltd Verfahren und systeme zur videoüberwachung
EP3128482A1 (de) 2015-08-07 2017-02-08 Xovis AG Verfahren zur kalibrierung einer stereokamera
US9538612B1 (en) 2015-09-03 2017-01-03 Express Imaging Systems, Llc Low power photocontrol for luminaire
US10687025B2 (en) 2015-10-27 2020-06-16 Vivint, Inc. Anti-theft doorbell camera
US9924582B2 (en) 2016-04-26 2018-03-20 Express Imaging Systems, Llc Luminaire dimming module uses 3 contact NEMA photocontrol socket
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10230296B2 (en) 2016-09-21 2019-03-12 Express Imaging Systems, Llc Output ripple reduction for power converters
US9985429B2 (en) 2016-09-21 2018-05-29 Express Imaging Systems, Llc Inrush current limiter circuit
US10098212B2 (en) 2017-02-14 2018-10-09 Express Imaging Systems, Llc Systems and methods for controlling outdoor luminaire wireless network using smart appliance
US11200427B2 (en) * 2017-03-31 2021-12-14 Yokogawa Electric Corporation Methods and systems for image based anomaly detection
US10568191B2 (en) 2017-04-03 2020-02-18 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10904992B2 (en) 2017-04-03 2021-01-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US11375599B2 (en) 2017-04-03 2022-06-28 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10219360B2 (en) 2017-04-03 2019-02-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10438464B1 (en) 2018-06-06 2019-10-08 Ademco Inc. Systems and methods for determining and verifying a presence of an object or an intruder in a secured area
CN110163232B (zh) * 2018-08-26 2020-06-23 国网江苏省电力有限公司南京供电分公司 智能视觉识别车板变压器坐标系统
US11074794B2 (en) 2018-11-30 2021-07-27 Ademco Inc. Systems and methods for activating and deactivating controlled devices in a secured area
US10996325B2 (en) 2018-11-30 2021-05-04 Ademco Inc. Systems and methods for adjusting a signal broadcast pattern of an intrusion detector
US11234304B2 (en) 2019-05-24 2022-01-25 Express Imaging Systems, Llc Photocontroller to control operation of a luminaire having a dimming line
US11317497B2 (en) 2019-06-20 2022-04-26 Express Imaging Systems, Llc Photocontroller and/or lamp with photocontrols to control operation of lamp
US11100651B1 (en) * 2019-08-08 2021-08-24 National Technology & Engineering Solutions Of Sandia, Llc Infrared intrusion detection system (IRIDS)
US10762773B1 (en) 2019-08-19 2020-09-01 Ademco Inc. Systems and methods for building and using a false alarm predicting model to determine whether to alert a user and/or relevant authorities about an alarm signal from a security system
USD1002411S1 (en) 2019-10-25 2023-10-24 Icm Airport Technics Australia Pty Ltd Baggage scanner array
US11212887B2 (en) 2019-11-04 2021-12-28 Express Imaging Systems, Llc Light having selectively adjustable sets of solid state light sources, circuit and method of operation thereof, to provide variable output characteristics

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4468694A (en) * 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPS62264390A (ja) 1986-05-12 1987-11-17 Omron Tateisi Electronics Co 監視ロボツト用視覚認識装置
US4905296A (en) 1986-07-22 1990-02-27 Schlumberger Systems & Services, Inc. System for shape recognition
US4924506A (en) * 1986-07-22 1990-05-08 Schlumberger Systems & Services, Inc. Method for directly measuring area and volume using binocular stereo vision
JPH0431996A (ja) 1990-05-28 1992-02-04 Matsushita Electric Works Ltd 画像認識型の防犯センサー
US5220441A (en) * 1990-09-28 1993-06-15 Eastman Kodak Company Mechanism for determining parallax between digital images
US5239373A (en) * 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
JP3114813B2 (ja) 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
EP0571702A3 (de) 1992-05-26 1994-10-12 Takenaka Corp Handzeige-Eingabegerät und Wandcomputereinheit.
EP0986252B1 (de) 1993-06-04 2006-03-08 Sarnoff Corporation System und Verfahren zur elektronischen Bildstabilisierung
DE69430153T2 (de) * 1993-06-21 2002-09-05 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
US20020126161A1 (en) * 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US20010006426A1 (en) * 1996-07-18 2001-07-05 Korea Institute Of Science And Technology Holographic projection screen for displaying a three-dimensional color images and optical display system using the holographic screen
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
RU2123718C1 (ru) 1996-09-27 1998-12-20 Кузин Виктор Алексеевич Способ ввода информации в компьютер
US6956573B1 (en) * 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
EP0849697B1 (de) 1996-12-20 2003-02-12 Hitachi Europe Limited Verfahren und System zur Erkennung von Handgesten
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US7532372B2 (en) * 1997-07-08 2009-05-12 Kremen Stanley H Method for creating a holographic screen that reconstructs uniformly magnified three-dimensional images from projected integral photographs
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
DE19739285C1 (de) 1997-09-08 1998-11-19 Siemens Nixdorf Inf Syst Vorrichtung zur Darstellung und virtuellen Eingabe von Daten
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
FR2771202B1 (fr) * 1997-11-19 2000-01-21 Inst Nat Rech Inf Automat Dispositif electronique de traitement de donnees-image, pour la simulation du comportement deformable d'un objet
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
US6377229B1 (en) * 1998-04-20 2002-04-23 Dimensional Media Associates, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6690357B1 (en) 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
WO2000055802A1 (de) 1999-03-17 2000-09-21 Siemens Aktiengesellschaft Anordnung zur interaktion
JP2002540864A (ja) * 1999-04-01 2002-12-03 キン リューン チョイ、ドミニク シミュレートされた人間相互交流システム
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US7006236B2 (en) * 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
SE0000850D0 (sv) 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6469734B1 (en) * 2000-04-29 2002-10-22 Cognex Corporation Video safety detector with shadow elimination
EP1373967A2 (de) * 2000-06-06 2004-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Die verlängerte virtuelle tabelle : eine optische verlängerung für tabellenähnliche systeme
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
AU2001287940A1 (en) * 2000-09-26 2002-04-08 Eugenio Bustamante Providing input signals
KR20030072591A (ko) * 2001-01-08 2003-09-15 브이케이비 인코포레이티드 데이터 입력 디바이스
DE10100615A1 (de) * 2001-01-09 2002-07-18 Siemens Ag Handerkennung mit Positionsbestimmung
DE10100617A1 (de) 2001-01-09 2002-07-18 Siemens Ag Steuerbare Anordnung mit Benutzerauthentisierung
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
EP1689172B1 (de) 2001-06-05 2016-03-09 Microsoft Technology Licensing, LLC Interaktives Video-Anzeigesystem
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US7110569B2 (en) 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US20030067537A1 (en) * 2001-10-04 2003-04-10 Myers Kenneth J. System and method for three-dimensional data acquisition
US6983065B1 (en) * 2001-12-28 2006-01-03 Cognex Technology And Investment Corporation Method for extracting features from an image using oriented filters
US7138997B2 (en) * 2002-06-28 2006-11-21 Autodesk, Inc. System for physical rotation of volumetric display enclosures to facilitate viewing
WO2003071410A2 (en) * 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7382895B2 (en) 2002-04-08 2008-06-03 Newton Security, Inc. Tailgating and reverse entry detection, alarm, recording and prevention using machine vision
WO2003091987A1 (fr) * 2002-04-26 2003-11-06 Idemitsu Kosan Co., Ltd. Dispositif et element structurel d'absorption des bruits et procede de fabrication associe
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US6857746B2 (en) * 2002-07-01 2005-02-22 Io2 Technology, Llc Method and system for free-space imaging display and interface
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
JP4216021B2 (ja) * 2002-08-30 2009-01-28 富士重工業株式会社 侵入物検出装置
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
ES2212739B1 (es) * 2003-01-02 2005-04-01 Sociedad Española De Carburos Metalicos, S.A. Sistema analizador para la deteccion de gases reductores y oxidantes en un gas portador y sensor de gases basado en oxidos metalicos de tipo semiconductor.
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7088243B2 (en) * 2003-05-26 2006-08-08 S1 Corporation Method of intruder detection and device thereof
WO2004111688A2 (en) * 2003-06-06 2004-12-23 New York University Method and apparatus for determining a bidirectional reflectance distribution function of a subject
US6796656B1 (en) * 2003-06-14 2004-09-28 Imatte, Inc. Generating a matte signal from a retro reflective component of a front projection screen
AU2004258513B2 (en) * 2003-07-03 2009-12-24 Holotouch, Inc. Holographic human-machine interfaces
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
US7159927B2 (en) * 2003-07-23 2007-01-09 Honda Motor Co., Ltd. Powered tailgate system
US7190496B2 (en) * 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
FR2858692B1 (fr) * 2003-08-08 2006-01-06 Rosenthal Patrick Olivier Levy Systeme permettant la visualisation d'images en trois dimensions avec un rendu en relief sur 36o degres
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
US7969409B2 (en) * 2004-02-18 2011-06-28 Rafal Jan Krepec Camera assisted pen tablet
WO2005099386A2 (en) * 2004-04-13 2005-10-27 Board Of Regents, The University Of Texas System Holographic projector
JP2005304540A (ja) * 2004-04-16 2005-11-04 Funai Electric Co Ltd 監視カメラを備えた自走式掃除機
JP4424088B2 (ja) * 2004-06-25 2010-03-03 株式会社日立製作所 撮像装置
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7929017B2 (en) * 2004-07-28 2011-04-19 Sri International Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060092178A1 (en) * 2004-10-29 2006-05-04 Tanguay Donald O Jr Method and system for communicating through shared media
WO2006086508A2 (en) * 2005-02-08 2006-08-17 Oblong Industries, Inc. System and method for genture based control system
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7643051B2 (en) * 2005-09-09 2010-01-05 Roy Benjamin Sandberg Mobile video teleconferencing system and control method
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US9052575B2 (en) * 2007-07-12 2015-06-09 Hewlett-Packard Development Company, L.P. Determining correspondence mappings from infrared patterns projected during the projection of visual content
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen

Also Published As

Publication number Publication date
GB2440826A (en) 2008-02-13
US8432448B2 (en) 2013-04-30
US20080043106A1 (en) 2008-02-21
GB2440826B (en) 2008-10-08
GB0715481D0 (en) 2007-09-19
JP2008140370A (ja) 2008-06-19
DE102007037647B4 (de) 2019-06-19
FR2908546A1 (fr) 2008-05-16
FR2908546B1 (fr) 2018-10-12

Similar Documents

Publication Publication Date Title
DE102007037647B4 (de) Einbruchsicherungssystem mit Stereokameraüberwachung
DE60020420T2 (de) Situationsdarstellungs-Anzeigesystem
DE102014213553B4 (de) Tracking-Unterstützungsvorrichtung, Tracking-Unterstützungssystem und Tracking-Unterstützungsverfahren
EP1197935B1 (de) Vorrichtung und Verfahren zur Erfassung von Objekten
DE102012221563B4 (de) Funktionsdiagnose und validierung eines fahrzeugbasierten bildgebungssystems
EP1168269B1 (de) Optoelektronische Schutzeinrichtung
EP2234081B1 (de) Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
DE102007036129B3 (de) Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
EP0815539B1 (de) Verfahren zur erkennung bewegter objekte in zeitlich aufeinander folgenden bildern
EP2034461B1 (de) Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE102013013082A1 (de) Toter-winkel-warnsystem und toter-winkel-warnverfahren
DE3841387A1 (de) Verfahren und vorrichtung zum ueberwachen eines sich bewegenden objekts
DE102006010735A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE19621612C2 (de) Vorrichtung zur Überwachung eines Gleisabschnittes in einem Bahnhof
EP0741377B1 (de) System zur Überwachung des Strassenverkehrs
DE102012106860A1 (de) Vorrichtung und Verfahren zum Identifizieren und Dokumentieren mindestens eines ein Strahlungsfeld durchfahrenden Objektes
DE102009035755A1 (de) Verfahren und Vorrichtung zum Überwachen eines Raumbereichs
DE60008797T2 (de) Verfahren und vorrichtung zur detektion eines gegenstandes in bezug auf eine oberfläche
DE10312249A1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102013217223A1 (de) Überwachungsanlage sowie Verfahren zur Darstellung eines Überwachungsbereichs
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102007032091B3 (de) Verfahren zum Überwachen eines höhengleichen Bahnübergangs
EP3811091A1 (de) Verfahren und anordnung zum erkennen von koronaentladungen einer anlage mit betriebsmitteln
DE4413633A1 (de) Verfolgungsgerät
EP3611653A1 (de) Vorrichtung und verfahren zum erfassen einer bereifung eines fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

R081 Change of applicant/patentee

Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION, LOS ANGE, US

Free format text: FORMER OWNER: NORTHROP GRUMMAN CORP., LOS ANGELES, CALIF., US

Effective date: 20120814

Owner name: NORTHROP GRUMMAN SYSTEMS CORPORATION, US

Free format text: FORMER OWNER: NORTHROP GRUMMAN CORP., LOS ANGELES, US

Effective date: 20120814

R082 Change of representative

Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE

Effective date: 20120814

Representative=s name: WUESTHOFF & WUESTHOFF PATENT- UND RECHTSANWAEL, DE

Effective date: 20120814

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee