DE69815977T2 - Gegen globale veränderungen unempfindlicher videobewegungsdetektor - Google Patents

Gegen globale veränderungen unempfindlicher videobewegungsdetektor Download PDF

Info

Publication number
DE69815977T2
DE69815977T2 DE69815977T DE69815977T DE69815977T2 DE 69815977 T2 DE69815977 T2 DE 69815977T2 DE 69815977 T DE69815977 T DE 69815977T DE 69815977 T DE69815977 T DE 69815977T DE 69815977 T2 DE69815977 T2 DE 69815977T2
Authority
DE
Germany
Prior art keywords
areas
frame
measurement areas
difference
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69815977T
Other languages
English (en)
Other versions
DE69815977D1 (de
Inventor
P. David KOLLER
P. Joseph PRESCHUTTI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Application granted granted Critical
Publication of DE69815977D1 publication Critical patent/DE69815977D1/de
Publication of DE69815977T2 publication Critical patent/DE69815977T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan

Description

  • HINTERGRUND DER ERFINDUNG
  • Bereich der Erfindung
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf ein Sicherheitssystem, insbesondere auf ein Sicherheitssystem, das Videoapparatur benutzt zur Bewegungsdetektion. Es wird ein System beschrieben, das die Anzahl Falschalarme, erzeugt von Videobewegungsdetektorsystemen in Reaktion auf Videobildänderungen, die sich nicht auf Bewegung beziehen, reduziert.
  • 2. Beschreibung des Standes der Technik
  • Im Bereich der Sicherheitssysteme sind Videosysteme durchaus bekannt. In einem typischen Sicherheitssystem werden eine oder mehrere Videokameras aufgestellt zum Schaffen eines Gesichtsfeldes, das beobachtet werden kann. Diese Videokameras verwandeln ein sichtbares Bild in eine elektronische Form, geeignet zur Übertragung. Eine Steuerstation, entweder innerhalb der Überwachungsgebietes oder in einer Entfernung davon, empfängt die Signale von diesen Kameras und gibt das Videobild an einer Wiedergabeanordnung zur Sicherheitsbemessung und Aufzeichnung wieder. Typischerweise überwacht eine Person die Bilder von den Kameras an einem Bildschirm und trifft Sicherheitsmaßnahmen, wenn das empfangene Bild unerlaubte Aktivitäten zeigt. Oft ist die überwachende Person (nachstehend als Überwacher bezeichnet) verantwortlich für die Überwachung der Bilder von mehreren Kameras gleichzeitig, und es sind Mittel vorgesehen, dem Überwacher dabei in diesem Prozess zu helfen.
  • Es werden automatisierte Bewegungsdetektionssysteme angewandt um dem Überwacher auf das Vorhandensein einer Aktivität innerhalb des Gesichtsfeldes einer Kamera aufmerksam zu machen, wie in dem US Patent 4.458.266 beschrieben. Die Bewegungsdetektionssysteme arbeiten durch Detektion von Änderungen in den sequentiellen elektronischen Bildern derselben Szene. Eine Änderung in der Szene bedeutet das Eintreten oder das Verlassen eines Items dieser Szene. Wenn eine Änderung detektiert wird, wird dem Überwacher ein Alarm zugeführt für eine Sicherheitsbemessung. Der Überwacher wird sich die Sequenz von Bildern, die den Alarm verursachte, ansehen, ebenso wie andere Bilder von dieser Kamera oder von anderen Kameras um zu ermitteln, ob der Alarm es erfordert, Sicherheitsmaßnahmen zu treffen, wie das alarmieren der Polizei oder das Auslösen eines Alarmsignals. Diese Bewegungsdetektionssysteme können an derselben Stelle vorhanden sein wie die Kamera oder sie können sich in einem Abstand davon befinden. Sie befinden sich oft an derselben Stelle wie die Kamera und übertragen die Bilder nur im Falle eines Alarm zu der Steuerstation, wodurch Kommunikationsbandbreite und Kosten gespart werden.
  • Änderungen der Umwelt werden dafür sorgen, dass das Videobild sich ändert; so wird beispielsweise draußen das Videobild bei Sonnenuntergang anders sein als das Videobild mittags um zwölf. Weil Bewegungsdetektoren durch Vergleich von Videobildern auf Änderungen arbeiten, und Umgebungsänderungen solche Änderungen herbeiführen, müssen Mittel vorgesehen werden um die Erzeugung eines Alarmsignals in Reaktion auf Umgebungsänderungen zu vermeiden. Weil es bekannt ist, dass die meisten Umgebungsänderungen sich langsam ändernde Phänomene sind, vermeiden herkömmlicherweise Bewegungsdetektionssysteme die Erzeugung von Alarm in Reaktion auf Umgebungsänderungen, indem Bilder miteinander verglichen werden, die in der Zeit relativ dicht beisammen liegen. Das bedeutet beispielsweise, dass stattdessen, dass Bilder von zwölf Uhr mit Bildern bei Sonnenuntergang miteinander verglichen werden, das Bild von zwölf Uhr mit dem Bild von einem Bruchteil einer Sekunde vor zwölf verglichen wird. Eine Person oder ein Gegenstand, der in die Szene eintritt, wird zwischen Bildern, die um einen Bruchteil einer Sekunde auseinander liegen, eine wesentliche Änderung herbeiführen, aber die Änderung der Umgebung in demselben Bruchteil der Zeit wird nicht ausreichen um einen Alarm auszulösen. Bei dem herkömmlichen System wird das verglichene Bild ständig aktualisiert, damit die Differenz des Bruchteils zwischen den Bildern beibehalten wird. Das bedeutet, dem oben genannten Vergleich zwischen dem Zwölf-Uhr-Bild und dem Zwölf-Uhr-minus-einem-Bruchteil-Bild folgend, dass das Zwölf-Uhr-plus-einem-Bruchteil-Bild mit dem Zwölf-Uhr-Bild verglichen wird, usw.
  • Dieser sequentielle Vergleichs- und Aktualisierungsprozess führt zu Bewegungsdetektionssystemen, die für relativ schnelle Änderungen in der Szene empfindlich sind und die für relativ langsame Änderungen in der Szene unempfindlich sind. Weil sie für schnelle Änderungen in Szenen empfindlich sind, sind herkömmliche Bewegungsdetektoren auch für schnelle Umgebungsänderungen empfindlich. Ein Blitz in der Nacht wird in aufeinanderfolgenden Videobildern eine wesentliche Änderung verursachen, und wird dafür sorgen, dass der Bewegungsdetektor, der mit diesen Bilder assoziiert ist, einen Alarm auslösen wird, wodurch ihre Effektivität während eines Unwetters abgewandt wird. Die Scheinwerfer eines Kraftwagens, die das Gebiet innerhalb des Gesichtsfeldes der Kamera beleuchten, werden ebenfalls ein Falschalarm auslösen, was oft die Wahl der Aufstellung oder des Gesichtsfeldes einer Sicherheitskamera begrenzt.
  • Sicherheitssysteme umfassen auch oft ein Mittel zum Maskieren eines Teils des Bildgebietes gegen Bewegungsdetektion. Solche Systeme gestatten Bewegung innerhalb der maskierten Gebiete und lösen einen Alarm bei Bewegung in anderen Gebieten aus, wobei sich die beiden Gebiete innerhalb des Gesichtsfeldes der Kamera befinden. Eine Innenszene kann beispielsweise einen Korridor neben einem Sicherheitsgebiet umfassen. Obschon Bewegung in dem Korridor maskiert werden kann, damit vermieden wird, dass in Reaktion auf eine solche Bewegung ein Alarm ausgelöst wird, wird das Ein- oder Ausschalten der Beleuchtung dieses Korridors verursachen, dass das Sicherheitsgebiet sich ändert, was zu einem Falschalarm führt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Im Wesentlichen beschreibt die vorliegende Erfindung ein Bewegungsdetektionssystem, das unempfindlich ist für Umgebungsbewegungen, einschließlich sich schnell und langsam ändernder Szenen. Die vorliegende Erfindung minimiert in der bevorzugten Ausführungsform die Wahrscheinlichkeit von Falschalarm, während auch die Wahrscheinlichkeit einer Umleitung eines richtigen Alarms minimiert wird.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass Umgebungsänderungen, wie oben beschrieben, Änderungen in der ganzen Szene verursachen, während eine Bewegung innerhalb einer Szene auf ein Subgebiet innerhalb der Szene lokalisiert wird. Nach der vorliegenden Erfindung werden Änderungen in den Videobildern bewertet für eine globale Szenenänderung, wobei ein großes Gebiet der Szene beeinflusst wird. Dadurch, dass die Bilder auf Änderungen bewertet werden, welche die ganze Szene beeinflussen, können Umgebungsänderungen von durch Bewegung verursachten Änderungen unterschieden werden. Es kann ausgeschlossen werden, dass Änderungen, welche die ganze Szene beeinflussen, einen Alarm erzeugen, wodurch Falschalarmfälle reduziert werden.
  • Bei einer weiteren Ausführungsform werden die örtlichen Änderungen mit der globalen Szenenänderung verglichen um zu bestimmen, ob die örtliche Änderung mit der globalen Änderung übereinstimmt. Örtliche Änderungen, die nicht mit der globalen Änderung übereinstimmen, werden danach bewertet für Bewegungsdetektion. Auf diese Weise können durch Bewegung induzierte örtliche Änderungen einen Alarm auslösen, obschon eine globale Änderung aufgetreten sein kann, gleichzeitig mit der örtlichen Bewegung. Dieses Merkmal begrenzt die Verwendung, seitens eines Einbrechers, einer ableitenden Umgebungsänderung zum Maskieren des Eintritts eines Einbrechers in ein gesichertes Gebiet.
  • Dieses und andere Merkmale der vorliegenden Erfindung dürften dem Fachmann im Lichte der Zeichnung und der nachfolgenden detaillierten Beschreibung klar werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • 1 zeigt ein Video-Sicherheitssystem mit Bewegungsdetektion.
  • 2 zeigt ein Flussdiagramm für Bewegungsdetektion mit Unempfindlichkeit für globale Bewegung, nach der vorliegenden Erfindung.
  • 3 zeigt Frames entsprechend beliebigen, durch Einbrecher induzierten und globalen Änderungen nach der vorliegenden Erfindung.
  • 4 zeigt ein Flussdiagramm zum Berechnen einer Bewegungsdetektionsschwelle.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN DER VORLIEGENDEN ERFINDUNG
  • 1 zeigt ein Video-Sicherheitssystem mit einem Bewegungsdetektor, wie in dem Stand der Technik bekannt. Videobilder 101 werden von der Kamera 110 erzeugt. Diese Bilder sind repräsentativ für das Gesichtsfeld der Kamera 112. Das Gesichtsfeld wird bestimmt durch die Lage der Kamera, die Orientierung und die Linsenkonfiguration. In 1a werden die Videobilder 101 gleichzeitig der Überwachungsstation 120 sowie dem Bewegungsdetektor 130 zugeführt. Der Bewegungsdetektor 130 vergleicht ein Frame des ak tuellen Bildes 136 mit einem Frame des vorhergehenden Bildes 137, unter Ansteuerung eines Controllers 139. Der Vergleichsblock 138 löst ein Alarmsignal 131 aus, wenn das aktuelle Bild 136 von dem vorhergehenden Bild 137 wesentlich abweicht. Die Differenz zwischen den Bilden kann beispielsweise durch die Anzahl Bildelemente (Pixel) mit einem anderen Wert gemessen werden. Wenn die Anzahl anderer Pixel einen Schwellenwert übersteigt, wird der Überwachungsstation ein Alarmsignal zugeführt. Die Verwendung einer Schwelle ermöglicht es, dass der Bewegungsdetektor unempfindlich sein kann für geringfügige Änderungen, wie diese verursacht werden, wenn kleine Tiere sich in dem Blickfeld der Kamera verlagern. Nach einem Vergleich mit Hilfe des Controllers 139 wird das aktuelle Bild 136 das vorhergehende Bild 137, und zwar in Vorbereitung des Empfangs des nächsten Frames des Videobildes 101. Der Bewegungsdetektor 130 kann ein etwaiges Maskierungsmerkmal aufweisen zum Absperren von Teilen der Szene vor Bewegungsdetektion. Dieses Absperren oder Maskieren erfolgt durch den Maskierungsblock 135. Die Maske identifiziert Gebiete des Bildes, die von dem Vergleichsblock 138 bei der Bestimmung, ab ein Alarmsignal 131 ausgelöst werden soll, nicht benutzt werden sollen. Die Maskierung wird dem Block 138 zugeführt, so dass die Differenzen zwischen denjenigen Pixeln des aktuellen Bildes 136 und dem vorhergehenden Bild 137, die den gebieten der Maske 135 entsprechen, nicht zum Auslösen des Alarmsignals 131 verwendet werden. Es sei bemerkt, dass in einem typischen System die Überwachungsstation das komplette, nicht maskierte Bild empfängt, das alle Bewegung zeigt, dass aber der Überwacher nicht auf Bewegung aufmerksam gemacht wird, ausgenommen auf Bewegung in den nicht maskierten Gebieten.
  • 1b zeigt ein Sicherheitssystem mit einer entfernt liegenden Überwachungsstation. Bilder 101 und Alarmsignale 131 werden dem Überwacher 120 über den Sender 140 und den Empfänger 150 zugeführt. Eventuell kann der Sender 140 dazu entworfen sein, nur Videobilder 101 zu senden, wenn dazu ein Befehl von dem Überwacher eintrifft, oder beim Auftritt eines bestätigten Alarmsignals von dem Bewegungsdetektor 131. Typischerweise kann der Sender einen oder mehrere Videobildpuffer enthalten. Bei Detektion einer Bewegung, wie signalisiert durch das Alarmsignal 131, wird der Sender das aktuelle Videosignal übertragen, ebenso das vorhergehende und das nachfolgende Bild, um dem Überwacher zu helfen bei der Beurteilung der Sicherheitssituation.
  • Der Bewegungsdetektor 130 funktioniert durch einen Vergleich des einen Bildes mit dem anderen. Statt des Vergleichs der Bilder auf Pixel-zu-Pixel-Basis, werden Gruppen von Pixeln in einem Bild typischerweise gekennzeichnet durch einen einzigen Parameter und dieser Parameter wird verglichen, und zwar bildweise. In der Beschreibung wird der Ausdruck Frame verwendet um die Darstellung des Bildes zu beschreiben und innerhalb jedes Frames gibt es Subelemente, die als MCU bezeichnet werden. Eine MCU bezieht sich auf eine Gruppe von Pixeln mit einem vergleichbaren Parameter. So kann beispielsweise eine MCU als eine aneinander schließende 8 zu 8 Gruppe von Pixeln bezeichnet werden und der Parameter dieser MCU kann die mittlere Leuchtdichte dieser 8 zu 8 Pixel sein. Ein Bild von 320 zu 240 Pixeln würde auf diese Weise ein Frame bilden, das in eine 40 zu 30 Matrix von 8 zu 8 Pixel-MCUs aufgeteilt ist und das Frame wird als eine 40 zu 30 Anordnung mit dem mittleren Pixelwert innerhalb jeder MCU gespeichert. Wenn der Mittelwert einer einzelnen MCU sich von dem einen Bild zum anderen wesentlich ändert, kann man annehmen, dass etwas in die Szene hinein gelangt ist oder die Szene verlassen hat. Die Größe der MCU kann so klein wie ein einzelnes Pixel sein; eine umfangreichere Größe wird zu einer schnelleren Verarbeitung der sequentiellen Bilder führen, aber mit einem damit einher gehenden Verlust an Auflösung.
  • Auch typisch für übliche Bewegungsdetektionssysteme ist, dass ein Parameter vorgesehen ist zum Spezifizieren der minimalen Größe eines Gegenstandes, bei der ein Alarm ausgelöst werden soll. Dieser Parameter kann als minimale Anzahl MCUs spezifiziert werden oder als eine bestimmte Anordnung von MCUs. So kann man beispielsweise spezifizieren, dass Bewegung in wenigstens fünf MCUs detektiert sein soll, bevor ein Alarm ausgelöst wird, oder in einem Gebiet von wenigstens zwei MCUs zu drei MCUs. Auf diese Weise werden beispielsweise kleine Tiere keinen Alarm auslösen, obschon die spezifischen MCUs, in denen deren Bild erscheint, eine Differenz vom einen Frame zum nächsten Frame zeigen. Das minimal bemessene Gebiet, erforderlich zum Auslösen eines Alarms wird hier als "Zielgröße" bezeichnet.
  • 2 zeigt ein Flussdiagramm für ein Bewegungsdetektionssystem nach der vorliegenden Erfindung. In dem Block 200 wird das Videobild verarbeitet zum Bilden eines Frames, das als eine MCU-Anordnung gespeichert wird. Wie oben bereits erwähnt, enthält die MCU-Anordnung Parameter, die das Bild auf denjenigen Grad kennzeichnen, der erforderlich ist zur nachfolgenden Verarbeitung. Jede MCU könnte einem einzigen Pixel ent sprechen und das Frame könnte das ganze Videobild enthalten, zu welcher Einzelheit die Kamera 110 auch schafft. Um die Verarbeitung zu optimieren ist aber das Frame typischerweise eine Abstahierung des Bildes, das genügend Einzelheiten enthält um einen Vergleich des einen Bildes mit dem anderen Bild zu ermöglichen, durch einen Vergleich der Parameter in dem einen Frame mit denen des anderen Frames. In der bevorzugten Ausführungsform stellt eine MCU eine 8 zu 8 Gruppe von Pixeln dar, und diese 8 zu 8 Pixel werden gekennzeichnet durch den Mittelwert deren Leuchtdichte; andere Kennzeichen der Pixel, wie deren zusammengesetzte Farbe, könnte auch benutzt werden, und zwar zusätzlich zu oder anstelle von dem Leuchtdichte-Parameter. Die MCU-Anordnung wird bei 210 zunächst auf eine minimale Lichtintensität beurteilt. Diese Beurteilung erfolgt als Selbsttest des Systems und kann einen Test auf eine maximale Intensität, auf minimalen Kontrast usw. umfassen. Diese Beurteilung schafft ebenfalls ein Alarmsignal bei einer möglichen absichtlichen Verdunklung der Kamera. Wenn genügend Licht detektiert wird, wird der Fehler 214 gemeldet und an diesem Bild wird eine weitere Verarbeitung durchgeführt.
  • Wenn genügend Licht detektiert wird, wird ein Auslösungstest bei 220 durchgeführt. Wenn dies das erste Frame ist, kann ein Vergleich nicht durchgeführt werden und das System fährt unmittelbar fort zum Aktualisieren der Bezugs-MCU-Anordnung bei 270. Die Bezugs-MCU-Anordnung ist die MCU-Anordnung, mit der nachfolgende MCU-Anordnungen verglichen werden. In einer typischen Ausführungsform ist diese Anordnung gleichsam eine Kopie der aktuellen MCU; aber es kann vorteilhaft sein, dass die Bezugsanordnung eine Zusammensetzung mehrerer vorhergehender Bilder ist. So ist beispielsweise in der bevorzugten Ausführungsform die Bezugs-MCU ein rekursiv gewichteter Mittelwert aller vorhergehender Bilder. Diese Mittelwert-MCU hat sich als effektiv erwiesen zum schnellen Unterdrücken von Bildänderungen, wie diese durch rasselnde Blätter und dergleichen verursacht werden können, während allmähliche Leuchtdichteänderungen, wie diese durch Sonnenaufgang, Sonnenuntergang usw. verursacht werden können, erlaubt sind.
  • Die Bezugs-MCU wird bei 280 beurteilt zum Berechnen von Parametern, die verwendet werden zum Vergleichen aufeinander folgender Frames. So ist beispielsweise bei der bevorzugten Ausführungsform die Varianz oder die Abweichung in dem Wert unter den MCU-Elementen indikativ für den Kontrast in dem Bild. Dieser Kontrast kann benutzt werden zum Einstellen einer minimalen Schwelle für die nachfolgenden MCU-Vergleiche. Das bedeutet, dass in den nachfolgenden MCU-Vergleichen nur diejenigen Änderungen, die über diese Schwelle hinaussteigen, als bemerkenswerte Änderungen angegeben werden. Die automatische Einstellung dieser Schwelle proportional zu dem Kontrast schafft eine konsistente Bewegungsdetektionsleistung, sogar unter wesentlich verschiedenen Sichtbedingungen. Wenn das Bild beispielsweise an einem hell sonnigen Tag erzeugt wird, könnte man einen großen Betrag an Kontrast in dem Bild erwarten und auf entsprechende Weise wesentliche Änderungen in der Leuchtdichte, wenn das Bild sich ändert, und zwar entweder durch die beliebige Bewegung von Items innerhalb der Szene, oder durch einen Eindringling. Zum Minimieren von Falschalarmfällen, verursacht durch beliebige Bewegungen wird der Schwellenwert derart eingestellt, dass er größer ist als die Änderungen in der Leuchtdichte, von denen man erwartet, dass sie durch diese beliebige Bewegungen verursacht werden. Auf diese Weise sollte die Schwelle hoch sein, wenn ein Bild einen hohen Grad an Kontrast enthält. Wenn dieselbe Szene an einem bewölkten Tag gesehen wird, wird der Kontrast niedriger sein, ebenso wie die Änderungen in der Leuchtdichte, wenn das Bild sich ändert. Der Schwellenwert soll nach unten eingestellt werden für ein Bild mit weniger Kontrast um den gleichen Grad der Intensität bei beliebiger Bewegung beizubehalten während dennoch der gleiche Grad der Empfindlichkeit für das eintreffen eines Eindringlings. Dadurch, dass die Schwelle in Abhängigkeit von dem Kontrast eingestellt wird, schafft das System eine automatische Einstellung, wodurch automatisch diese Konsistenz beibehalten wird. Wenn das Bezugsbild erzeugt worden ist und wenn der Schwellenpegel für nachfolgende Vergleiche eingestellt worden ist, kehrt der Prozess zu 290 zurück, bis das nächste Bild bei 200 eintrifft.
  • Bei Empfang eines nachfolgenden Bildes wird das Bild verarbeitet zum Erzeugen einer neuen MCU-Anordnung bei 200 und es wird geprüft auf eine minimale Lichtintensität bei 210, wie oben beschrieben. Wenn es nicht ein erstes Frame ist, wird es mit der obengenannten Bezugs-MCU-Anordnung verglichen zum Erzeugen einer Differenz-Anordnung bei 230. Bei der bevorzugten Ausführungsform ist dies eine elementweise Subtraktion jeder entsprechenden MCU innerhalb der aktuellen MCU und der Bezugs-MCU. Die Größe der Differenz jedes entsprechenden MCU wird in der Differenz-Anordnung gespeichert.
  • Wenn ein Differenzfaktor einer einzelnen MCU einen Detektionsschwellenwert übersteigt, wie in 240 bestimmt, wird in einer Differenzmerkerdarstellung bei 250 ein Differenzmerker gesetzt, entsprechend dieser MCU. Die Differenzmerkerdarstellung wird beispielsweise eine Eins für jede aktuelle MCU enthalten, die um den Detektionsschwellenbetrag von der Bezugs-MCU abweicht, und sonst eine Null. Ein Eindringlich würde ein Cluster von Einsen in dieser Darstellung an der Eindringstelle verursachen. Die Darstellung wird bei 260 beurteilt um feststellen zu können, ob es ein Cluster gibt, das die obengenannte Zielgröße übersteigt. Wenn es ein oder mehrere Cluster gibt, wird bei 265 ein Alarm ausgelöst. Im anderen Fall wird wie Bezugsanordnung bei 270 aktualisiert und bei 280 beurteilt und der Prozess kehrt zurück und wartet auf das nächste Frame.
  • Das Aktualisieren der Bezugsanordnung kann davon abhängig gemacht werden, ob ein Alarm ausgelöst wurde. Es kann beispielsweise bevorzugt werden, das Bezugs-voralarm-bild nicht zu aktualisieren bis eine gewisse Aktion unternommen wird, und zwar in Reaktion auf den ausgelösten Alarm. Auf gleiche Weise kann eine andere Verarbeitung durchgeführt werden beim Auslösen des Alarms und dieser Prozess kann für nachfolgende Frames umgangen werden, damit solche Prozesse ununterbrochen durchgeführt werden können.
  • Der Vorgang dieses Flussdiagramms ist in 3 detailliert dargestellt. 3A stellt eine Szene dar, bei der beliebige Änderungen in der Leuchtdichte auftreten; 3B stellt eine Szene dar beim Eintreten eines Eindringlings; 3C stellt eine Szene dar beim Auftritt einer globalen Änderung. In jeder dieser Figuren ist das Bezugsframe 310 dasselbe. Das Bezugsframe 310 nach Folgeframe 320A, 320B, 320C und das Differenzframe 330A, 330B, 330C umfassen je zwanzig MCUs 315, gegliedert in einer fünf-zu-vier-Matrix. Im Prinzip sind diese Frames vorgesehen um eine Unterteilung einer Szene darzustellen, wie dies dem Gesichtsfeld 112 der Kamera 110 entspricht. Wenn beispielsweise die in jeder MCU dargestellten Nummern die Leuchtdichte darstellen, zeigt das Bezugsframe 310 höhere Werte in dem oberen Bereich der Matrix, was der Luft oder der Deckenbeleuchtung entspricht, während die niedrigeren Bereiche geringere Werte haben, entsprechend Erde oder Fußboden. Entsprechend dieser Erfindung kann die Struktur und die Übereinstimmung mit der Framedarstellung eine alternative Form annehmen, beispielsweise für eine genauere Verarbeitung.
  • In 3B hat das Folgeframe 320A Eingänge, die repräsentativ sind für beliebige Änderungen von dem Bezugsframe. MCU 321 zeigt einen Wert gleich 21, während die entsprechende MCU 311 in dem Bezugsframe einen Wert gleich 25 zeigt. Die Größe der Differenz zwischen MCU 321 und MCU 311 ist als der Wert 4 in dem entspre chenden Differenzframe MCU 331 angegeben. Auf gleiche Weise entsprechen die Werte von MCU 332 und 333 der Größe der Differenzen zwischen MCUs 322 und 312, bzw. MCUs 323 und 313.
  • Wenn nun ein Schwellenwert gleich zehn vorausgesetzt wird, wird eine Differenzmerkerabbildung, wie durch den Block 250 in 2 berechnet, bei 350A dargestellt. Die MCUs innerhalb des Differenzframes 330A, deren Werte wenigstens zehn sind, haben eine übereinstimmende 1 in der Differenzmerkerabbildung 350A. Der Differenzmerkereingang 353 hat einen Wert gleich 1, entsprechend dem Differenz-MCU-333-Wert gleich elf, während die Differenzmerkereingänge, die den MCUs 331 und 332 entsprechen, mit Werten 4 bzw. 3, je einen Wert 0 bei 351 und 352 haben. Obschon zwei der Eingänge in der Differenzmerkerabbildung 350A eine 1 haben, wenn der Zielgrößenparameter von Block 260 in 2 beispielsweise zwei aneinander grenzende MCUs ist, würde der Alarm bei 265 nicht ausgelöst werden.
  • 3B entspricht dem Eintritt eines Eindringlings in das Gebiet entsprechend den MCUs, angegeben bei 341. Die Differenz-MCUs bei 342 zeigen eine große Differenz zwischen den MCUs bei 341 und den MCUs bei 340. Auf entsprechende Weise zeigt die Differenzmerkerabbildung ein Cluster von Einsen bei 343. Wenn dieses Cluster über den Zielgrößenparameter, beispielsweise zwei aneinander grenzende MCUs, hinaus steigt, wird der Alarm bei 265 ausgelöst.
  • Wie oben anhand der 2 erwähnt, wird die Differenzanordnung bei 240 und 250 bewertet um Differenzcluster zu identifizieren. Es ist bei dieser Bewertung, dass globale Änderungen unterschieden werden können. Es kann erwartet werden, dass eine globale Änderung Änderungen zur Größe von MCUs einführt. Auf diese Weise kann, wenn die Differenzanordnung viele Änderungen enthält, statt einiger örtlicher Änderungen, gefolgert werden, dass eine globale Änderung aufgetreten ist, statt einer Eindringung. Es kann jede beliebige Anzahl Algorithmen angewandt werden um zu bestimmen, ob die Änderungen weit verbreitet oder nur örtlich sind. So kann beispielsweise eine Zählung der Elemente in der Differenzanordnung, die eine bestimmte minimale Größe übersteigt, benutzt werden. Wenn diese minimale Größe dieselbe ist wie der obengenannte Schwellenwert, könnte die Zählung die Anzahl Merker sein, die in der Differenzmerkerabbildung gesetzt wurden. Wenn der Zählwert dem Wert, der durch das Eindringen des Eindringlings erwartet werden kann, wesentlich übersteigt, kann die Änderung als global betrachtet werden und kann für dieses Frame der Alarm verboten werden.
  • 3C entspricht einem globalen Fall, beispielsweise dem Auftritt eines Blitzes oder das Blitzlicht einer Blitzlampe. Die Werte der MCUs des Folgeframes 320C zeigen einen markierten Anstieg in der Leuchtdichte, was in dem Differenzframe 330C reflektiert ist. Wenn der Schwellenwert zehn ist, wie in den vorhergehenden Beispielen, werden die meisten der Differenzmerkereingaben auf 1 gesetzt, wie bei 350C dargestellt. Nach der vorliegenden Erfindung kann das Auftreten einer 1 in den meisten MCUs verwendet werden zum Signalisieren des Auftritts eines globalen Ereignisses, wofür das Auslösen des Alarms bei 365 verboten wird. Weil die Differenzabbildung 340C eine Vielzahl von Eingaben 1 enthält, würde in diesem Beispiel das nachfolgende Auslösen eines Alarms verboten werden.
  • Auf diese Weise kann, wie angegeben, die Beurteilung der Differenzmerker effektiv benutzt werden zum Unterscheiden örtlicher Änderungen von globalen Änderungen. Diese Unterscheidung kann dann benutzt werden um das Auslösen eines Falschalarms zu vermeiden, wie dies in einem vorhergehenden System durch das Auftreten einer globalen Änderung verursacht werden würde.
  • Auf alternative Weise kann aus der obenstehenden Annäherung der Differenzmerker die Varianz der Elemente innerhalb der Differenzanordnung benutzt werden um globale Änderungen von örtlichen Änderungen zu unterscheiden. Es würde erwartet, dass eine globale Änderung alle Elemente auf gleiche Weise beeinflussen würde, und folglich wäre die Varianz der Größen der Differenz klein. Eine örtliche Eindringung aber würde eine Differenz in dem Bereich der Eindringung einführen und keine Differenz in den anderen Bereichen. Auf diese Weise wäre eine große Varianz typische für eine Eindringung. Dieses und andere Verfahren der Unterscheidung globaler Änderungen von örtlichen Änderungen in einer Anordnung sind einem Sachverständigen auf diesem Gebiet bekannt und liegen im Rahmen der vorliegenden Erfindung.
  • Obschon die Beurteilung der Differenzanordnung in den Blöcken 240 und 250 nur einen Merker setzen würde um das Auslösen eines Alarms zu verbieten, wenn eine globale Änderung detektiert wird, wie oben beschrieben, ist eine weitere Ausführungsform der vorliegenden Erfindung ausgelegt zum Auslösen eines Alarms in dem Fall einer gleichzeitigen örtlichen und globalen Änderung. In der bevorzugten Ausführungsform wird der Effekt einer globalen Änderung dadurch erhalten, dass der Schwellenpegel für eine örtliche Bewegungsdetektion gesteigert wird. Wie in 2 dargestellt und anhand der 4 detailliert beschrieben, wird die Detektionsschwelle mit jedem Frame eingestellt. Der Mittelwert der Größen der Differenzen wird berechnet, wie in den Schritten 410 bis 450 nach 4 dargestellt. Von dieser mittleren Differenz würde man erwarten, dass sie für eine globale Änderung hoch ist und für eine örtliche Änderung niedrig. Dieser Mittelwert, skaliert durch einen globalen Empfindlichkeitsfaktor, ist die Detektionsschwelle, die benutzt wird um die Differenzmerker in 250 zu stellen. Wie bei 460 dargestellt, wird die Detektionsschwelle nicht derart gesetzt, dass sie kleiner ist als die minimale Schwelle von Block 280, wie oben beschrieben. Der globale Empfindlichkeitsfaktor kann ein vom Benutzer definierbarer Faktor sein und ist typischerweise größer als eins.
  • 3C zeigt den Effekt einer gesteigerten Schwelle bei 355C. Das Differenzframe 330C erzeugt Differenzmerker 350C, wenn ein Schwellenwert zehn benutzt wird, wie oben beschrieben, aber dasselbe Frame 330C erzeugt Differenzmerker 355C, wenn ein Schwellenwert achtundvierzig benutzt wird. Nach der vorliegenden Erfindung wird der Mittelwert MCUs des Differenzframes 330C in den Blöcken 410450 als zweiunddreißig berechnet. Es wird nun vorausgesetzt, dass ein typischer globaler Empfindlichkeitsfaktor von 1,5 zu einer Detektionsschwelle bei 460 von achtundvierzig führt. Wie erwartet führt der höhere Schwellenwert dazu, dass weniger MCUs diesen Schwellenwert übersteigen und folglich, dass weniger Eingaben von 1 in den Differenzmerkern 355C auftreten.
  • Die Effektivität der obenstehend beschriebenen dynamischen Detektionsschwelleneinstellung nach der vorliegenden Erfindung kann am besten bewertet werden durch ein Beispielsszenario in einem etwas mehr allgemeinen nachstehenden Fall.
  • Es wird vorausgesetzt, dass die MCU-Werte von 0 (schwarzes Bild) bis 100 Weißes Bild) reichen. Weiterhin wird vorausgesetzt, dass der Bildkontrast derart ist, dass das Schwellenminimum auf 10 gesetzt wird, dass ein Eindringlich eine Differenz von etwa 30 in zehn Prozent der Bild-MCUs verursacht und dass der Benutzer die globale Empfindlichkeit auf 1,0 gesetzt hat. Beim Fehlen einer globalen Änderung wird eine mittlere Differenz zwischen Bildern gleich 5 vorausgesetzt, wie dies durch beliebige Faktoren verursacht werden kann. Beim Fehlen eines Eindringlings wird diese mittlere Differenz (5) mit der Empfindlichkeit (1,5) multipliziert und mit dem Schwellenminimum (10) verglichen. Weil das Schwellenminimum (10) größer ist als dieses Produkt (7,5) wird die Detektionsschwelle auf 10 gesetzt. Alle MCUs mit einer Differenz von wenigstens 10, wie dies durch den zufälligen Eintritt eines kleines Tieres verursacht sein könnte, würden dazu führen, dass der entsprechende Differenzmerker gesetzt wird. Nur dann, wenn ein Cluster gesetzter Merker größer ist als die Zielgröße, wird bei 265 ein Alarm ausgelöst.
  • Wenn nun der Eintritt eines Eindringlings betrachtet wird, so fehlt eine globale Änderung. Der Eindringling wird eine Änderung in der mittleren Differenz von etwa 3 (30 mal 10 Prozent) herbeiführen, was zu einer DiffAvg bei 450 von 8 führt. Bei 460 wird die Detektionsschwelle auf den höheren Wert des Schwellenminimums (10) und der DiffAvg (8) mal der GlobalSens (1,5) gesetzt; d. h. die Detektionsschwelle wird höher eingestellt, auf 12, und zwar wegen des Eintritts des Eindringlings. Jede der MCUs, in die der Eindringlich die Änderung von 30 Einheiten einführte, wird, wen verglichen mit dieser Schwelle von 12, dazu führen, dass der entsprechende Differenzmerker gesetzt wird. Wenn nun vorausgesetzt wird, dass die gesetzten Merker, die dem Eindringling entsprechen, die spezifizierte Zielgröße übersteigen, wird bei 265 der Alarm ausgelöst.
  • Nun wird eine globale Änderung ohne Eindringling betrachtet. Die Größe der eingeführten Differenz wird abhängig sein von der bestimmten globalen Änderung. Es wird ein Auftreten betrachtet, das verursacht, dass die mittlere Differenz in MCU-Werten auf 40 ansteigt, wie bei 450 berechnet. Herkömmliche Bewegungsdetektoren würden unter diesen Umständen einen Alarm auslösen, weil die meisten MCUs das Schwellenminimum übersteigen werden, und wesentlich große Clusters von Differenzmerkern gesetzt werden. Nach der vorliegenden Erfindung aber wird die Detektionsschwelle bei 460 auf einen Wert von 60 gesetzt (40 mal dem globalen Empfindlichkeitsfaktor von 1,50). Nur die Stellen, an denen die Änderung wesentlich größer ist als die mittlere Änderung von 40 werden einen Differenzmerker gesetzt haben. Weil es erwartet werden kann, dass eine globale Änderung das ganze Bild relativ einheitlich beeinflusst, kann man erwarten, dass solche Stellen minimal sind. Wenn nur einige, oder überhaupt Merker gesetzt sind, wird ein Alarm nicht ausgelöst. Es dürfte folglich einleuchten, dass die dynamische Einstellung der Schwellenwerte in Abhängigkeit von der mittleren Änderung in MCU-Werten zwischen Frames den gewünschten Effekt der Minimierung der Anzahl Falschalarme, verursacht durch globale Änderungen, hat.
  • Zum Schluss wird der Fall betrachtet, dass eine globale Änderung mit einem Eindringlich zusammenfällt, beispielsweise der Fall, dass ein Eindringling versucht während eines Gewitters die Detektion zu entweichen, indem er nur während der Blitze sich verlagert. Ein herkömmliches Sicherheitssystem kann ein Alarm auslösen, aber dies wird einen minimalen Effekt haben, weil der Überwacher dies als einen durch den Blitz ausgelösten Falschalarm interpretieren wird. Höchstwahrscheinlich wird der herkömmliche Sicherheitssystemüberwacher den Bewegungsdetektor nach den ersten Blitzen, die einen Falschalarm auslösten, abgeschaltet haben. Die hier beschriebene bevorzugte Ausführungsform wird aber imstande sein, den Eindringling von den globalen Änderungen zu unterscheiden. Wenn örtliche und globale Änderungen auftreten, wird die mittlere Differenz etwas weniger als die Summe der beiden Auftritte, weil die Effekte der einen die Effekte der anderen verringern können. Zum einfacheren Verständnis wird aber vorausgesetzt, dass die Effekte nahezu additiv sind, so dass in der Beispielumgebung die meisten von dem Eindringling beeinflußten MCUs bis nahezu 70 gehen, wenn die anderen MCUs auf etwa 40 ansteigen, und einen Differenzmittelwert bei 450 von etwa 42 erzeugen. Die kombinierten globalen und Eindringlingsänderungen werden auf diese Weise zu einer Detektionsschwelle von 63 (42 mal 1,50) führen. Da die meisten durch den Eindringling beeinflußten MCUs über diesem Schwellenminimum liegen, werden die entsprechenden Differenzmerker bei 250 gesetzt und der Alarm wird bei 265 ausgelöst. Es ist auf diese Weise ersichtlich, dass mit dieser bevorzugten Ausführungsform örtliche Änderungen detektiert werden, sogar wenn diese mit einer globalen Änderung zusammenfallen. Die Wahrscheinlichkeit, dass ein wirklicher Eindringling wegen des Auftrittes globaler Änderungen übersehen wird, wird dadurch wesentlich verringert, und zwar durch die Verwendung dieser bevorzugter Ausführungsform.
  • Alternative Techniken können angewandt werden zum Einstellen der Schwelle. So kann beispielsweise die Varianz der Differenzen benutzt werden zur weiteren Modifikation des globalen Empfindlichkeitsfaktors, entsprechend der angewandten Technik zum Einstellen des oben in Bezug auf den Prozess 280 in 1 beschriebenen Schwellenminimums. Wenn beispielsweise der globale Auftritt den Effekt hat, dass das meiste des Bildes weggewaschen wird, wodurch ein geringer Kontrast erzeugt wird, kann die globale Empfindlichkeit in dem vorhergehenden Beispiel auf 1,20 reduziert werden, so dass Diffe renzen, den Mittelwert um nur 20 Prozent übersteigen, statt der obenstehenden 50 Prozent, ihren entsprechenden Differenzmerker gesetzt haben.
  • Obschon die bevorzugte Ausführungsform dadurch funktioniert, dass die Schwelle eingestellt wird, können gleichwertige Techniken angewandt werden um den gleichen Effekt zu erzielen. So könnte beispielsweise die ursprüngliche MCU-Anordnung, die dem Bild entspricht, um einen Betrag modifiziert werden, der abhängig ist von der mittleren Änderung und es können herkömmliche Bewegungsdetektionstechniken auf diese modifizierte Anordnung angewandt werden. Das heißt, dass entsprechend der vorliegenden Erfindung Kennzeichen, die mit einer globalen Änderung assoziiert werden können, von dem ursprünglichen Bild entfernt werden können. Eine nachfolgende Bewegungsdetektion an dieser modifizierten Darstellung des Bildes führt zu einer Bewegungsdetektion, die unempfindlich ist für globale Änderungen, während dennoch örtliche Bewegungsdetektionsmöglichkeiten vorhanden sind.
  • Auf gleiche Weise können alternative Algorithmen angewandt werden entsprechend dem Geist und dem Umfang der vorliegenden Erfindung. Wenn beispielsweise bemerkt wird, dass globale Änderungen typisch in nur einer Richtung sind, d. h. alle MCUs in der positiven oder negativen Richtung beeinflussend, könnten wechselnde Summen von Differenzen in 430 berechnet werden. Das heißt, eine Summe positiver Änderungen und eine Summe negativer Änderungen. Die größere dieser Summen könnte einen Beitrag zu einer globalen Änderung liefern und die Schwelle könnte auf Basis der höheren Mittelwertes eingestellt werden. Oder es kann bemerkt werden, dass globale beliebige Änderungen, wie wehende Bäume oder ein Schwarm Vögel typischerweise zu einigen positiven Änderungen und zu einigen negativen Änderungen führen, und zwar durch die zufällige Art dieser Ereignisse. Die Differenz zwischen der Summe der positiven Änderungen und der Summe der negativen Änderungen könnte benutzt werden zum Einstellen der Detektionsschwelle, wodurch die Effekte zufälliger Differenzen minimiert werden.
  • Die vorliegende Erfindung lehrt, dass Falschalarme dadurch minimiert werden können, dass die Effekte globaler Änderungen von denen örtlicher Änderungen unterschieden werden. Es gibt bekannte statistische und heuristische Techniken zum Unterscheiden zwischen Effekten, verursacht durch viele Ursachen und sind für diese Anwendung durchaus geeignet. Ein Chi-Quadrat-Test könnte beispielsweise benutzt werden um zu bestimmen, welche einzelne MCUs wesentlich anders sind als die Population aller MCUs.
  • Oder ein ANOVA (Analysis Of Variance) Test kann angewandt werden um zu bestimmen, ob die Differenzen, wie diese durch die MCU-Elemente gemessen wurden, konsistent mit einem globalen Ereignis oder einem örtlichen Ereignis sind, durch Beurteilung der MCUs in einer Reihen- und Spaltengliederung. In einem globalen Ereignis sollen einzelne Reihen und Spalten nicht wesentlich verschiedene Kennzeichen aufweisen, wie andere Reihen oder Spalten. Ein Eindringling wird andererseits eine Varianz in die Reihen und Spalten einführen, die für das Gebiet der Eindringung gemeinsam sind. Eine derartige ANOVA-Technik könnte am besten angewandt werden beispielsweise in einer Umgebung, wo globale Änderungen nicht in nur einer Richtung gehen. So enthalten beispielsweise die meisten Kameras eine automatische Linsenaperuteinstellungfür sich ändernde Lichtumstände. Wenn auf einen steilen Anstieg in der Lichtintensität exponiert, wird das Bild derartiger das Licht kompensierenden Kameras einen Anstieg in den beleuchteten Gebieten zeigen, sowie einen Abfall in schattigen Gebieten.
  • Auf gleiche Weise funktioniert, obschon der Einfachheit der Implementierung halber, die bevorzugte Ausführungsform durch einen Vergleich des aktuellen Bildes mit einem einzigen Bezugsbild, sind die hier angewandten Prinzipien auch anwendbar auf den Vergleich und die Bewertung von Reihen von Bildern, um örtliche Änderungen von globalen Änderungen zu unterscheiden.
  • Obenstehendes illustriert die Prinzipien der vorliegenden Erfindung. Es dürfte folglich einleuchten, dass der Fachmann imstande sein wird, mehrere Abwandlungen zu bedenken, obschon diese hier nicht genau genannt oder beschrieben worden sind, welche die Prinzipien der vorliegenden Erfindung verkörpern und folglich im Rahmen der beiliegenden Patentansprüche liegen.

Claims (13)

  1. Verfahren zum Detektieren von Bewegung in aufeinander folgenden Bil-dern, wobei dieses Verfahren die nachfolgenden Verfahrensschritte umfasst: – das Definieren eines Ziel-Größenparameters, der eine minimale Größe eines Gebietes angibt zum Auslösen eines Alarms, – das Definieren eines Globaländerungsparameters, der angibt, dass eine globale Änderung statt eines Einbruchs stattgefunden hat, – das Erzeugen eines Bezugsrahmens in Abhängigkeit von einem oder mehreren vorhergehenden Bildern, – das Erzeugen eines nachfolgenden Rahmens in Abhängigkeit von einem zweiten Bild, – das Erzeugen eines nachfolgenden Rahmens in Abhängigkeit eines zweiten Bildes, – das Aufteilen des genannten Bezugsrahmens und des genannten nachfolgenden Rahmens in eine Anzahl Gebiete, – das Vergleichen entsprechender Gebiete in dem genannten nachfolgenden Rahmen und in dem genannten Bezugsrahmen mit einer Schwelle, wobei ein Differenzmessrahmen gebildet wird, zusammengesetzt aus verschiedenen Messgebieten, – das Identifizieren verschiedener Messgebiete mit einem Wert, der im Wesentlichen von anderen der genannten Differenzmessgebiete abweicht, und – das Erzeugen eines Alarmsignals, wenn eine Anzahl benachbarter im Wesentlichen verschiedener Differenzmessgebiete größer ist als der genannte Ziel-Größenparameter, und wenn die genannte Anzahl benachbarter im Wesentlichen verschiedener Differenzmessgebiete kleiner ist als der genannte Globaländerungsparameter.
  2. Verfahren zum Detektieren von Bewegung nach Anspruch 1, wobei der Schritt der Erzeugung eines Alarmsignals die nachfolgenden Verfahrensschritte umfasst: – das Vergleichen der Anzahl verschiedener Differenzmessgebiete mit dem genannten Ziel-Größenparameter zum Bilden eines Detektionssignals, – das Vergleichen der Anzahl Differenzmessgebiete mit dem genannten Globaländerungsparameter zum Bilden eines Sperrsignals, und – das Erzeugen eines Alarmsignals in Abhängigkeit von dem genannten Detektionssignal und des genannten Sperrsignals.
  3. Verfahren nach Anspruch 1, wobei der genannte Vergleich in Abhängigkeit von der Leuchtdichte der genannten Gebiete der genannten Bilder bestimmt wird.
  4. Verfahren nach Anspruch 1, wobei die Identifikation der genannten Differenzmessgebiete, deren Werte wesentlich anders sind als die Werte der anderen Differenzmessgebiete, die nachfolgenden Verfahrensschritte umfasst: – das Berechnen eines Mittelwertes aller Differenzmessgebiete des Differenzrahmens, und – das Vergleichen jedes Wertes der Differenzmessgebiete mit dem genannten Mittelwert.
  5. Verfahren nach Anspruch 1, wobei die Identifikation der Differenzmessgebiete, deren Werte wesentlich anders sind als der Wert der anderen Differenzmessgebiete einen statistischen Test für wesentliche Differenzen umfasst.
  6. Verfahren nach Anspruch 1, wobei der genannte Schritt der Erzeugung eines Alarmsignals weiterhin von einer Charakteristik der genannten ersten Bilder abhängig ist.
  7. Verfahren nach Anspruch 1, wobei die genannte Charakteristik der vorhergehenden Bilder mit einer Kontrastmessung korreliert ist.
  8. Verfahren nach Anspruch 7, wobei die genannte Schwelle auf Basis der genannten Kontrastmessung bestimmt wird.
  9. Bewegungsdetektionssystem (130) zum Durchführen des Verfahrens nach Anspruch 1, wobei das System die nachfolgenden Elemente umfasst: – Mittel (137) zum Erzeugen eines Bezugsrahmens in Abhängigkeit von einem oder mehreren vorhergehenden Bildern, – Mittel (136) zum Erzeugen eines nachfolgenden Rahmens in Abhängigkeit von einem zweiten Bild, – Mittel (138) zum Vergleichen von Gebieten in dem genannten nachfolgenden Bild mit entsprechenden Gebieten in dem genannten Bezugsrahmen gegenüber einer Schwelle, wobei ein Differenzrahmen gebildet wird, zusammengesetzt aus verschiedenen Messgebieten, und gekennzeichnet durch: – Mittel zum Erzeugen eines Ziel-Größenparameters, der eine minimale Größe eines Gebietes angibt zum Auslösen eines Alarms, – Mittel zum Erzeugen eines Globaländerungsparameters, der angibt, dass eine Globaländerung statt eines Einbruchs stattgefunden hat, – Mittel zum Identifizieren von Differenzmessgebieten mit Werten, die wesentlich anders sind als die der genannten Differenzmessgebiete, – Mittel zum Erzeugen eines Bewegungsdetektionssignals, wenn eine Anzahl benachbarter wesentlich anderer Differenzmessgebiete größer ist als der genannte Zielgrößenparameter und die genannte Anzahl benachbarter im Wesentlichen anderer Differenzmessgebiete kleiner ist als der genannte Globaländerungsparameter.
  10. Bewegungsdetektionssystem nach Anspruch 9, wobei die genannten Mittel zum Erzeugen des Bezugsrahmens Mittel aufweisen zum Berechnen eines gewichteten Mittelwertes einer oder mehrerer Charakteristiken der genannten vorhergehenden Bilder.
  11. Bewegungsdetektionssystem nach Anspruch 9, wobei die genannten Mittel zum Erzeugen eines Bewegungsdetektionssignals abhängig ist von einer oder mehreren Charakteristiken der genannten vorhergehenden Bilder.
  12. Bewegungsdetektionssystem nach Anspruch 11, wobei eine der Charakteristiken der vorhergehenden Bilder ein Kontrastfaktor ist.
  13. Bewegungsdetektionssystem nach Anspruch 9, wobei – die genannten Gebiete der genannten vorhergehenden und zweiten Bilder durch eine Leuchtdichtemessung gekennzeichnet werden, und – die genannten Mittel zum Vergleichen auf der Leuchtdichtemessung der entsprechenden ersten und zweiten Subgebiete basieren.
DE69815977T 1997-04-14 1998-04-02 Gegen globale veränderungen unempfindlicher videobewegungsdetektor Expired - Lifetime DE69815977T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US834072 1992-02-10
US08/834,072 US6130707A (en) 1997-04-14 1997-04-14 Video motion detector with global insensitivity
PCT/IB1998/000483 WO1998047118A1 (en) 1997-04-14 1998-04-02 Video motion detector with global insensitivity

Publications (2)

Publication Number Publication Date
DE69815977D1 DE69815977D1 (de) 2003-08-07
DE69815977T2 true DE69815977T2 (de) 2004-05-19

Family

ID=25266032

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69815977T Expired - Lifetime DE69815977T2 (de) 1997-04-14 1998-04-02 Gegen globale veränderungen unempfindlicher videobewegungsdetektor

Country Status (5)

Country Link
US (1) US6130707A (de)
EP (1) EP0906605B1 (de)
JP (1) JP2000513848A (de)
DE (1) DE69815977T2 (de)
WO (1) WO1998047118A1 (de)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496228B1 (en) * 1997-06-02 2002-12-17 Koninklijke Philips Electronics N.V. Significant scene detection and frame filtering for a visual indexing system using dynamic thresholds
US20120159597A1 (en) * 1997-07-01 2012-06-21 Thomas C Douglass Methods for remote monitoring and control of security devices over a computer network
US8073921B2 (en) * 1997-07-01 2011-12-06 Advanced Technology Company, LLC Methods for remote monitoring and control of appliances over a computer network
US6512537B1 (en) * 1998-06-03 2003-01-28 Matsushita Electric Industrial Co., Ltd. Motion detecting apparatus, motion detecting method, and storage medium storing motion detecting program for avoiding incorrect detection
FR2779549B1 (fr) * 1998-06-08 2000-09-01 Thomson Csf Procede de separation des composantes dynamique et statique d'une suite d'images
US20020057840A1 (en) * 1999-02-26 2002-05-16 Belmares Robert J. System and method for monitoring visible changes
US7124427B1 (en) * 1999-04-30 2006-10-17 Touch Technologies, Inc. Method and apparatus for surveillance using an image server
US6591006B1 (en) * 1999-06-23 2003-07-08 Electronic Data Systems Corporation Intelligent image recording system and method
ATE250260T1 (de) * 1999-07-17 2003-10-15 Siemens Building Tech Ag Einrichtung zur raumüberwachung
US6317152B1 (en) * 1999-07-17 2001-11-13 Esco Electronics Corporation Digital video recording system
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US7231083B1 (en) * 1999-10-29 2007-06-12 Intel Corporation Controlling processor-based systems using a digital camera
US6844895B1 (en) 1999-11-15 2005-01-18 Logitech Europe S.A. Wireless intelligent host imaging, audio and data receiver
JP3880759B2 (ja) * 1999-12-20 2007-02-14 富士通株式会社 移動物体検出方法
US6654483B1 (en) * 1999-12-22 2003-11-25 Intel Corporation Motion detection using normal optical flow
US6940998B2 (en) 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US6433839B1 (en) * 2000-03-29 2002-08-13 Hourplace, Llc Methods for generating image set or series with imperceptibly different images, systems therefor and applications thereof
GB2364608A (en) * 2000-04-11 2002-01-30 Paul Conway Fisher Video motion detector which is insensitive to global change
WO2002037856A1 (en) * 2000-11-06 2002-05-10 Dynapel Systems, Inc. Surveillance video camera enhancement system
JP3833614B2 (ja) * 2001-02-19 2006-10-18 本田技研工業株式会社 目標認識装置および目標認識方法
GB0104922D0 (en) * 2001-02-28 2001-04-18 Mansfield Richard L Method of detecting a significant change of scene
GB0118020D0 (en) * 2001-07-24 2001-09-19 Memco Ltd Door or access control system
WO2003028376A1 (en) * 2001-09-14 2003-04-03 Vislog Technology Pte Ltd Customer service counter/checkpoint registration system with video/image capturing, indexing, retrieving and black list matching function
US20030078905A1 (en) * 2001-10-23 2003-04-24 Hans Haugli Method of monitoring an enclosed space over a low data rate channel
US7136513B2 (en) 2001-11-08 2006-11-14 Pelco Security identification system
US7305108B2 (en) * 2001-11-08 2007-12-04 Pelco Security identification system
US20030112866A1 (en) * 2001-12-18 2003-06-19 Shan Yu Method and apparatus for motion detection from compressed video sequence
US6786730B2 (en) 2002-03-01 2004-09-07 Accelerized Golf Llc Ergonomic motion and athletic activity monitoring and training system and method
CN2544359Y (zh) * 2002-06-07 2003-04-09 宋有洲 室内防暴捕捉器
IL162879A0 (en) * 2002-07-05 2005-11-20 Dmatek Ltd A method and system for effectively performing event detection in a large number of concurrent imagesequences
DE10313002B4 (de) * 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
US20040212678A1 (en) * 2003-04-25 2004-10-28 Cooper Peter David Low power motion detection system
TWI225622B (en) * 2003-10-24 2004-12-21 Sunplus Technology Co Ltd Method for detecting the sub-pixel motion for optic navigation device
JP2005321442A (ja) * 2004-05-06 2005-11-17 Pioneer Electronic Corp ディスプレイ装置のディザ処理回路
JP2006243940A (ja) * 2005-03-01 2006-09-14 Oki Electric Ind Co Ltd カメラデータ転送装置
TW200634674A (en) * 2005-03-28 2006-10-01 Avermedia Tech Inc Surveillance system having multi-area motion-detection function
US9077882B2 (en) 2005-04-05 2015-07-07 Honeywell International Inc. Relevant image detection in a camera, recorder, or video streaming device
US7822224B2 (en) 2005-06-22 2010-10-26 Cernium Corporation Terrain map summary elements
US7129460B1 (en) * 2005-09-02 2006-10-31 Olson Gaylord G Electronic imaging apparatus with high resolution and wide field of view and method
US20070208904A1 (en) * 2006-03-03 2007-09-06 Wu-Han Hsieh Wear leveling method and apparatus for nonvolatile memory
US20110123067A1 (en) * 2006-06-12 2011-05-26 D & S Consultants, Inc. Method And System for Tracking a Target
US8116748B2 (en) * 2006-12-14 2012-02-14 At&T Intellectual Property I, Lp Management of locations of group members via mobile communications devices
US20080147773A1 (en) * 2006-12-14 2008-06-19 Bellsouth Intellectual Property Corp. Ratings systems via mobile communications devices
US7738898B2 (en) * 2006-12-14 2010-06-15 At&T Intellectual Property I, L.P. Methods and devices for mobile communication device group behavior
US20080146250A1 (en) * 2006-12-15 2008-06-19 Jeffrey Aaron Method and System for Creating and Using a Location Safety Indicator
US8160548B2 (en) * 2006-12-15 2012-04-17 At&T Intellectual Property I, Lp Distributed access control and authentication
US8566602B2 (en) 2006-12-15 2013-10-22 At&T Intellectual Property I, L.P. Device, system and method for recording personal encounter history
US7646297B2 (en) * 2006-12-15 2010-01-12 At&T Intellectual Property I, L.P. Context-detected auto-mode switching
US20080169922A1 (en) * 2007-01-16 2008-07-17 Peter Alan Issokson Portable deterrent alarm system
US8787884B2 (en) * 2007-01-25 2014-07-22 At&T Intellectual Property I, L.P. Advertisements for mobile communications devices via pre-positioned advertisement components
US8649798B2 (en) * 2007-01-25 2014-02-11 At&T Intellectual Property I, L.P. Methods and devices for attracting groups based upon mobile communications device location
US8199003B2 (en) 2007-01-30 2012-06-12 At&T Intellectual Property I, Lp Devices and methods for detecting environmental circumstances and responding with designated communication actions
US20080183571A1 (en) * 2007-01-30 2008-07-31 Jeffrey Aaron Methods and systems for provisioning and using an electronic coupon
US8335504B2 (en) * 2007-08-23 2012-12-18 At&T Intellectual Property I, Lp Methods, devices and computer readable media for providing quality of service indicators
US8630497B2 (en) * 2007-11-27 2014-01-14 Intelliview Technologies Inc. Analyzing a segment of video
JP4636130B2 (ja) * 2008-06-27 2011-02-23 ソニー株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
WO2010124062A1 (en) 2009-04-22 2010-10-28 Cernium Corporation System and method for motion detection in a surveillance video
JP5205337B2 (ja) * 2009-06-18 2013-06-05 富士フイルム株式会社 ターゲット追跡装置および画像追跡装置ならびにそれらの動作制御方法ならびにディジタル・カメラ
ES2924935T3 (es) * 2011-05-04 2022-10-11 Stryker European Operations Holdings Llc Sistemas y métodos para la detección y comprobación automáticas de imágenes clínicamente relevantes
HUE028354T2 (en) * 2011-10-28 2016-12-28 Vlaamse Instelling Voor Tech Onderzoek Nv (Vito Nv) An infrared presence is detected to detect the presence of an object in an observation area
DE102011117654B4 (de) * 2011-11-04 2013-09-05 Eizo Gmbh Verfahren zum Betreiben einer Bildverarbeitungseinrichtung sowie entsprechende Bildverarbeitungseinrichtung
US10373470B2 (en) 2013-04-29 2019-08-06 Intelliview Technologies, Inc. Object detection
US9986140B2 (en) * 2013-11-21 2018-05-29 International Business Machines Corporation Utilizing metadata for automated photographic setup
CA2847707C (en) 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
JP6411768B2 (ja) * 2014-04-11 2018-10-24 Hoya株式会社 画像処理装置
US10943357B2 (en) 2014-08-19 2021-03-09 Intelliview Technologies Inc. Video based indoor leak detection
US10855971B2 (en) * 2015-09-16 2020-12-01 HashD, Inc. Systems and methods of creating a three-dimensional virtual image
EP3168711A1 (de) * 2015-11-11 2017-05-17 ams AG Verfahren, optische sensoranordnung und computerprogrammprodukt für passive optische bewegungsdetektion

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3988533A (en) * 1974-09-30 1976-10-26 Video Tek, Inc. Video-type universal motion and intrusion detection system
US4227212A (en) * 1978-09-21 1980-10-07 Westinghouse Electric Corp. Adaptive updating processor for use in an area correlation video tracker
US4270143A (en) * 1978-12-20 1981-05-26 General Electric Company Cross-correlation video tracker and method
US4257063A (en) * 1979-03-23 1981-03-17 Ham Industries, Inc. Video monitoring system and method
EP0062655B1 (de) * 1980-10-22 1986-10-15 The Commonwealth Of Australia Aufspürvorrichtung von videobewegungen
US4894716A (en) * 1989-04-20 1990-01-16 Burle Technologies, Inc. T.V. motion detector with false alarm immunity
GB2249420B (en) * 1990-10-31 1994-10-12 Roke Manor Research Improvements in or relating to intruder detection systems
US5243418A (en) * 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
US5259040A (en) * 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
EP0567697A1 (de) * 1992-04-29 1993-11-03 Yiu Keung Chan Methode für Bildkompression im Raumbereich
US5309147A (en) * 1992-05-21 1994-05-03 Intelectron Products Company Motion detector with improved signal discrimination
KR0151410B1 (ko) * 1992-07-03 1998-10-15 강진구 영상신호의 운동벡터 검출방법
JP3569992B2 (ja) * 1995-02-17 2004-09-29 株式会社日立製作所 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム
KR0181069B1 (ko) * 1995-11-08 1999-05-01 배순훈 움직임 추정장치

Also Published As

Publication number Publication date
JP2000513848A (ja) 2000-10-17
WO1998047118A1 (en) 1998-10-22
DE69815977D1 (de) 2003-08-07
EP0906605B1 (de) 2003-07-02
US6130707A (en) 2000-10-10
EP0906605A1 (de) 1999-04-07

Similar Documents

Publication Publication Date Title
DE69815977T2 (de) Gegen globale veränderungen unempfindlicher videobewegungsdetektor
EP0939387B1 (de) Einrichtung zur Raumüberwachung
DE3634628C2 (de)
EP3058556B1 (de) Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken
EP0984413B1 (de) Verfahren und Vorrichtung zur automatischen Waldbranderkennung
DE60132622T2 (de) Verfahren und vorrichtung zur auswahl des besten videoeinzelbildes zur übermittlung an einen entfernten standort innerhalb eines geschlossenen fernsehsystems zur wohnbereichssicherheitsüberwachung
AT506928B1 (de) Verfahren zur videoanalyse
DE60213715T2 (de) Bildüberwachungsvorrichtung, -verfahren und -verarbeitungsprogramm
EP0986912A1 (de) Verfahren zum überwachen eines vorgegebenen überwachungsbereiches
DE4407528A1 (de) System und Verfahren zur Bildauswertung
EP2235948B1 (de) Überwachungsmodul für ein videoüberwachungssystem, verfahren zur zustandsüberwachung eines überwachungsbereichs sowie computerprogramm
DE60123214T2 (de) Rauch- und flammendetektion
DE4138254C1 (de)
DE112021005703T5 (de) Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren
EP0448803B1 (de) Videokontroll-Einrichtung
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
EP0356734A2 (de) Einbruchmeldeanlage für den Perimeterschutz mit Fernsehkameras
EP0777864B1 (de) System und verfahren zur bildauswertung
WO2019048601A1 (de) Automatische früherkennung von rauch, russ und feuer mit erhöhter erkennungssicherheit
EP3453001A1 (de) Detektionsvorrichtung, verfahren zur detektion eines ereignisses und computerprogramm
DE19641000A1 (de) Verfahren und Anordnung zur automatischen Erkennung der Anzahl von Personen in einer Personenschleuse
DE19749136C2 (de) Verfahren und Vorrichtung zum Erfassen von Bewegungen
EP1079350B1 (de) Einrichtung zur Raumüberwachung
DE19744694B4 (de) Videobewegungsmeldeeinrichtung
EP1079351B1 (de) Einrichtung zur Raumüberwachung

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: ROBERT BOSCH GMBH, 70469 STUTTGART, DE

8364 No opposition during term of opposition