DE60202341T2 - System zur Fahrspurerkennung - Google Patents

System zur Fahrspurerkennung Download PDF

Info

Publication number
DE60202341T2
DE60202341T2 DE60202341T DE60202341T DE60202341T2 DE 60202341 T2 DE60202341 T2 DE 60202341T2 DE 60202341 T DE60202341 T DE 60202341T DE 60202341 T DE60202341 T DE 60202341T DE 60202341 T2 DE60202341 T2 DE 60202341T2
Authority
DE
Germany
Prior art keywords
lane
image processing
road
vehicle
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60202341T
Other languages
English (en)
Other versions
DE60202341D1 (de
Inventor
Yuji Hitachi-shi Otsuka
Shoji Hitachi-shi Muramatsu
Hiroshi Naka-gun Takenaga
Jiro Takezaki
Tatsuhiko Monji
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of DE60202341D1 publication Critical patent/DE60202341D1/de
Application granted granted Critical
Publication of DE60202341T2 publication Critical patent/DE60202341T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/089Lane monitoring; Lane Keeping Systems using optical detection

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft ein System zur Fahrspurerkennung zur Erkennung einer Fahrspur eines Fahrzeugs durch Durchführen einer Bildverarbeitung eines von einer Kamera aufgenommenen Bildes der Straßenoberfläche und insbesondere ein System zur Fahrspurerkennung zum Fahren auf einer richtigen Fahrspur, entsprechend einer Vielzahl von Fahrbahnmarkierungsformen (-arten).
  • Eine Technologie zur Erkennung einer Fahrspur eines Fahrzeugs ist eine Technologie, die für ein Warnsystem für ein Fahrzeug, wenn es von der Fahrspur abzukommen droht, für ein Unterstützungssystem zum Beibehalten der Fahrspur bei einer Lenkhilfssteuerung, usw., notwendig ist. Hinsichtlich der Fahrspurerkennungs-Technologie gibt es ein Verfahren, in dem magnetische Fahrbahnmarkierungen in eine Straße eingebaut sind, um eine Fahrspur aus den Positionen des magnetischen Felds zu erkennen; ein Verfahren, in dem eine Position eines Fahrzeugs unter Verwendung eines differentiellen GPS oder eines kinematischen GPS mit hoher Genauigkeit gemessen wird, um eine Fahrspur aus sehr genauen Straßenkarte-Daten zu berechnen; usw. Jedoch erfordert jedes dieser Verfahren den Aufbau einer Infrastruktur und dementsprechend ist der anwendbare Bereich begrenzt.
  • Andererseits hat ein Verfahren, das eine Bildverarbeitung durch Erfassen einer Fahrspur aus einem Kamerabild verwendet, einen Vorteil darin, dass der anwendbare Bereich groß ist, da keine Infrastruktur aufgebaut werden muss.
  • Bei der Fahrspurerkennung unter Verwendung der Bildverarbeitung ist immer eine zuverlässige Erkennung erforderlich, unter Berücksichtigung verschiedener Zustände einer Straßenoberfläche. In der offengelegten japanischen Patentanmeldung Nr. 7-128059, die ein Verfahren offenbart, in dem ein Parameter oder ein Schwellenwert entsprechend einem Zustand einer Straßenoberfläche verändert wird, wird erläutert, dass der Schwellenwert, der zum Gewinn einer Kante einer weißen Linie einer Fahrbahnmarkierung verwendet wird, aus der Intensität der Kante bestimmt wird. Ferner wird in der offengelegten japanischen Patentanmeldung Nr. 6-341821 beschrieben, dass der Erkennungsbereich verändert wird, indem unabhängig von den Intensitäten der Kanten von rechten und linken weißen Linien Schwellenwerte gesetzt werden. Wie oben beschrieben, können, durch Verändern eines Schwellenwerts oder eines Parameters entsprechend dem Zustand einer Straßenoberfläche, zuverlässige Erkennungsergebnisse für verschiedene Zustände einer Straßenoberfläche erhalten werden.
  • Obwohl die herkömmlichen Technologien mit den verschiedenen Zuständen einer Straßenoberfläche zurecht kommen, indem sie den Schwellenwert oder den Parameter ändern, wird die Erkennung unter Verwendung des Bildverarbeitungsalgorithmus durchgeführt, der unter der Voraussetzung erstellt wird, dass es sich bei den Fahrbahnmarkierungen um weiße Linien handelt.
  • Die meisten der Fahrbahnmarkierungen sind in Japan weiße Linien (gelbe Linien), aber erhöhte Fahrbahnmarkierungen und Pfosten werden zusätzlich zu den weißen Linien in verschiedenen anderen Ländern verwendet. Die Erfassung einer Fahrspur wird durchgeführt, um einen Versatz eines Fahrzeugs und eine Krümmung der Fahrspur zu erhalten. Wenn verschiedene Arten der Fahrbahnmarkierungen, wie die weiße Linie, erhöhte Fahrbahnmarkierungen, Pfosten, usw. unter Verwendung eines herkömmlichen Bildverarbeitungsalgorithmus einer Bildverarbeitung unterzogen werden, besteht ein Problem darin, dass die Erkennungsgenauigkeit der resultierenden Erkennungsrate schlechter ist.
  • US-A-5835028 betrifft einen Fahrbahnmarkierungs-Positionssensor und ein Warnsystem zum Erfassen aufgemalter Fahrbahnmarkierungen und eine Signalisierung, wenn sich ein Fahrzeug weiter als eine vorgegebene Schwellenentfernung hinsichtlich der Fahrbahnmarkierung bewegt hat. Darin ist aber nicht offenbart, dass einer aus einer Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen ausgewählt werden soll, die einzeln verschiedenen Fahrbahnmarkierungen entsprechen.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung soll das oben erwähnte Problem lösen, und eine Aufgabe der vorliegenden Erfindung ist es, ein System zur Fahrspurerkennung vorzusehen, das die Genauigkeit der Fahrspurerkennung durch zuverlässiges Erfassen der verschiedenen Arten von Fahrbahnmarkierungen verbessern kann.
  • Ein System zur Fahrspurerkennung gemäß der vorliegenden Erfindung ist charakterisiert durch ein Bildverarbeitungsmittel zur Bildverarbeitung eines Bilds der Straße mit einer Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen. Eine Fahrspur kann durch Auswahl eines Bildverarbeitungsalgorithmus erfasst werden, der für die Fahrspur geeignet ist, aus der Vielzahl von Bildverarbeitungsalgorithmen, die der Straße, auf der das Fahrzeug fährt, entsprechen.
  • Genauer gesagt, der Bildverarbeitungsalgorithmus wird ausgewählt durch Identifizieren einer Art von Fahrbahnmarkierung auf der Stra ße, auf der das Fahrzeug fährt, und/oder ein zum Erfassen der Fahrspur des Fahrzeugs eingesetzter Bildverarbeitungsalgorithmus wird zu einem Zeitpunkt ausgewählt auf Grundlage eines Erkennungs-Zuverlässigkeitsmaßes durch einen Bildverarbeitungsalgorithmus, der zum Erfassen der Fahrspur des Fahrzeugs vorher eingesetzt wurde.
  • Das System zur Fahrspurerkennung gemäß der vorliegenden Erfindung weist die Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen in dem Bildverarbeitungsmittel zur Bildverarbeitung eines Bilds einer Straße auf. Eine Fahrspur kann erfasst werden durch Auswahl eines für die Fahrspur geeigneten Bildverarbeitungsalgorithmus aus der Vielzahl von Bildverarbeitungsalgorithmen, die einer Straße entsprechen, auf der das Fahrzeug fährt. Demgemäß kann die vorliegende Erfindung die Genauigkeit der Erkennung einer Fahrspur durch zuverlässiges Erfassen einer der vielen Arten von Fahrbahnmarkierungen verbessern.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist eine Blockdarstellung, die den Aufbau eines Ausführungsbeispiels gemäß der vorliegenden Erfindung zeigt.
  • 2 ist ein Ablaufdiagramm für die Verarbeitung, das den Betrieb der vorliegenden Erfindung darstellt.
  • 3 ist ein Ablaufdiagramm für die Verarbeitung eines Erkennungsalgorithmus für eine weiße Linie.
  • 4 ist ein Ablaufdiagramm für die Verarbeitung eines Erkennungsalgorithmus für eine erhöhte Fahrbahnmarkierung.
  • 5 ist ein Ablaufdiagramm für die Verarbeitung eines Erkennungsalgorithmus für einen Pfosten.
  • 6 ist ein Ablaufdiagramm für die Verarbeitung eines Erkennungsalgorithmus für Muster auf der Straßenoberfläche.
  • 7 ist ein Ablaufdiagramm für die Verarbeitung eines Beispiels eines gängigen Erkennungsalgorithmus für eine Linienmarkierung.
  • 8 ist eine Blockdarstellung, die den Aufbau der vorliegenden Erfindung zeigt.
  • 9 ist eine Blockdarstellung, die einen weiteren Aufbau der vorliegenden Erfindung zeigt.
  • 10 ist ein Ablaufdiagramm für die Verarbeitung, das den Betrieb gemäß 9 darstellt.
  • 11 zeigt beispielhafte Darstellungen, die verschiedene Formen von Fahrbahnmarkierungen darstellen.
  • 12 zeigt Darstellungen, die eine in dem Erkennungsalgorithmus für Straßenoberflächemuster verwendete Densitäts-Projektion darstellen.
  • Detaillierte Beschreibung bevorzugter Ausführungsbeispiele
  • 1 ist eine Blockdarstellung eines Systems zur Fahrspur-Beibehaltung gemäß der vorliegenden Erfindung.
  • Das System zur Fahrspurerkennung gemäß der vorliegenden Erfindung bildet das System zur Fahrspur-Beibehaltung. Der gesamte Aufbau des Systems zur Fahrspur-Beibehaltung wird im Folgenden zuerst beschrieben und anschließend wird die Erfindung detailliert beschrieben.
  • Unter Bezugnahme auf 1 besteht das System zur Fahrspur-Beibehaltung aus einem Fahrspurerkennungsteil 1 zum Erhalt von Fahrspur-Positionsinformation, die zur Steuerung der Beibehaltung der Fahrspur erforderlich ist, einem Fahrspur-Beibehaltung-Steuerungsteil 2 zum Steuern eines Fahrzeugs und einem Fahrspur-Beibehaltung-Durchführungsteil 3, das den Betrieb der Beibehaltung der Fahrspur betrifft.
  • Das Fahrspurerkennungsteil 1 besteht aus einer Kamera 5 als ein Abbildungsmittel zum Aufnehmen eines Bildes der Straße vor dem Fahrzeug, einem Bildverarbeitungsmittel 6 mit Bildverarbeitungsalgorithmen, die einzeln Formen (Arten) von Fahrbahnmarkierungen entsprechen und einem Bildverarbeitungsalgorithmus-Auswahlmittel 4, um einen auszuführenden Bildverarbeitungsalgorithmus aus der Vielzahl von in dem Bildverarbeitungsmittel 6 gespeicherten Bildverarbeitungsalgorithmen auszuwählen.
  • Das von der Kamera 5 erhaltene Bild der Straße vor dem Fahrzeug wird von dem Bildverarbeitungsmittel 6 verarbeitet, um ein Ergebnis der Fahrspurerkennung zu bekommen. Das Ergebnis der Fahrspurerkennung enthält eine Versatzinformation des Fahrzeugs bezüglich der Fahrbahn und eine Krümmungsinformation der Fahrbahn. Die Versatzinformation wird durch 0 ausgedrückt, wenn das Fahrzeug in der Mitte der Fahrspur fährt, durch einen negativen Wert, wenn das Fahrzeug bei der Fahrt zur linken Seite hin versetzt ist, durch einen positiven Wert, wenn das Fahrzeug bei der Fahrt zur rechten Seite hin versetzt ist, und der Wert ist umso größer, je größer der Versatz ist.
  • Das Ergebnis der Fahrspurerkennung des Bildverarbeitungsmittels 6 wird von dem Fahrspur-Beibehaltung-Steuerungsteil 2 verarbeitet, um eine Steuerung des Fahrspur-Beibehaltung-Durchführungsteils 3 durchzuführen. Konkret unterstützt das Fahrspur-Beibehaltung-Durchführungsteil 3 die Lenkung, so dass das Fahrzeug entlang der Fahrspur durch Steuern eines Lenk-Aktuators 7 gefahren wird, oder warnt den Fahrer, indem es ein Fahrspur-Abweichungs-Warnsystem 8 startet, wenn das Fahrzeug von der Fahrspur abzukommen droht.
  • Das System zur Fahrspurerkennung (das Teil zur Fahrspurerkennung) 1 weist auf das Bildverarbeitungsmittel 6 mit der Vielzahl von Bildverarbeitungsalgorithmen 9 bis 12 und das Bildverarbeitungsalgorithmus-Auswahlmittel 4 zur Auswahl eines Bildverarbeitungsalgorithmus, der einer Art einer Fahrbahnmarkierung entspricht, aus der Vielzahl von Bildverarbeitungsalgorithmen.
  • Die in dem Bildverarbeitungsmittel 6 gespeicherten Bildverarbeitungsalgorithmen 9 bis 12 werden im Folgenden erläutert.
  • Das Bildverarbeitungsmittel 6 weist vier Arten der Bildverarbeitungsalgorithmen auf. Hinsichtlich der Bildverarbeitungsalgorithmen, die den Formen der Fahrbahnmarkierungen entsprechen, sind vorgesehen ein Erkennungsalgorithmus 9 für eine weiße Linie, um eine Position einer weißen Linie (einschließlich einer gelben Linie) zu erfassen, ein Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung, um eine Position einer erhöhten Fahrbahnmarkierung zu erfassen, ein Erkennungsalgorithmus 11 für einen Pfosten, um eine Position eines Pfostens zu erfassen und ein Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche, um ein Straßenoberflächemuster (zum Beispiel Radspuren, usw.) in einem Fall zu erfassen, wenn es auf einer alten bedeckten Straße schwierig ist, die Fahrbahnmar kierungen aufgrund von Störungen oder Verunreinigungen zu sehen, wenn es auf einer unbedeckten Straße nicht möglich ist, Fahrbahnmarkierungen zu entdecken, oder wenn eine Straße in einem schlechten Zustand ist, z. B. durch Schneeablagerungen.
  • In dem Fall des Algorithmus zum Erfassen der Fahrbahnmarkierungen kann, wenn eine Position einer Fahrbahnmarkierung erfasst wird, der Versatz des Fahrzeugs auf der Fahrspur berechnet werden. Ferner kann, wenn mehrere Positionen von Fahrbahnmarkierungen mit bestimmten Abständen in Metern (zum Beispiel 10 m) vor dem Fahrzeug erhalten werden, eine Krümmung der Fahrspur berechnet werden. Andererseits können, in dem Fall des Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche, Positionen der Fahrbahnmarkierungen nicht bekannt sein. Durch Erfassen einer Position eines Endes einer Seite der Straße oder einer Position des vorausfahrenden Fahrzeugs wird ein Versatz des Fahrzeugs bezüglich der Fahrspur berechnet. Die Krümmung der Fahrspur kann durch Analysieren eines Musters der Straßenoberfläche vor dem Fahrzeug berechnet werden.
  • Jeder der Bildverarbeitungsalgorithmen 9 bis 12 führt die folgende Verarbeitung durch.
  • Der Erkennungsalgorithmus 9 für eine weiße Linie erfasst Positionen von weißen Linien 41, die auf der Straßenoberfläche gemalt (angeordnet) sind, wie in 11(a) gezeigt wird. Der Verarbeitungsablauf des Erkennungsalgorithmus 9 für eine weiße Linie wird in 3 gezeigt. Da ein Densitätswert des Teils der weißen Linie 41 höher ist als ein Densitätswert der Straßenoberfläche, wird die Position der weißen Linie unter Verwendung dieser Charakteristik erfasst.
  • In Schritt S21 wird zuerst eine Kantenerfassung durchgeführt, um die Abgrenzung zwischen der weißen Linie 41 und der Straßenoberfläche zu erfassen. In Schritt S22 wird an den erfassten Punkten eine Hough-Transformation durchgeführt, um eine gerade Linienkomponente zu erfassen, die aus den Kantenpunkten besteht. Wo die Fahrbahn eine Kurve aufweist, wird die weiße Linie 41 eine gebogene Linie. Durch Durchführung der Hough-Transformation kann jedoch durch Aufteilen der Kantenpunkte in den Teil nahe dem eigenen Fahrzeug und den von dem eigenen Fahrzeug entfernten Teil die gebogene Linie durch gerade Linien approximiert werden.
  • Nach dem Erfassen von Kandidaten für Komponenten von geraden Linien für die weiße Linie 41 wird in Schritt S23 die Breite der Fahrspur überprüft, indem bewertet wird, ob die erfasste gerade Linie die weiße Linie 41 ist oder nicht. Die Breite der Fahrspur beträgt im Allgemeinen ungefähr 3.5 m und eine tatsächliche weiße Linie 41 kann aus den Kandidaten für weiße Linien auf Grundlage dieser Information ausgewählt werden. Die Überprüfung der Breite der Fahrspur kann nicht nur für den Erkennungsalgorithmus 9 für eine weiße Linie verwendet werden, sondern auch für den Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung und den Erkennungsalgorithmus 11 für einen Pfosten.
  • Nach der Erfassung der Position der weißen Linie 41 auf einem Bild werden die Ergebnisse der Fahrspurerkennung aus Information über ein Versatz des Fahrzeugs bezüglich der Fahrspur und Information über die Krümmung der Fahrspur in Schritt S24 berechnet. Das Verfahren geht von Schritt S24 zu Schritt S25, um ein Zuverlässigkeitsmaß der Fahrspurerkennung der weißen Linie 41 zu berechnen. Das Verfahren zum Berechnen des Zuverlässigkeitsmaßes der Fahrspurerkennung wird später beschrieben.
  • Obwohl die Kantenpunkte verwendet werden, die auf der Abgrenzungslinie zwischen der weißen Linie 41 und der Straßenoberfläche erscheinen, kann eine Erfassung der weißen Linie durchgeführt werden durch Extrahieren eines Teils eines höheren Densitätswertes, da der Teil der weißen Linie einen hohen Densitätswert aufweist. Folglich kann die Genauigkeit einer Erfassung weiter verbessert werden, indem dieses Extraktions-Verfahren und das Kanten-Punkt-Verfahren kombiniert werden.
  • Der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung ist ein Algorithmus zum Erfassen der Positionen von erhöhten Fahrbahnmarkierungen 42, die in die Straßenoberfläche eingelassen sind, wie in 11(b) gezeigt wird. Der Verarbeitungsablauf des Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung wird in 4 gezeigt.
  • In den meisten Fällen der erhöhten Fahrbahnmarkierung 42 ist der Densitätsunterschied zwischen der erhöhten Fahrbahnmarkierung und der Straßenoberfläche kleiner als im Fall der weißen Linie. Zuerst wird in Schritt S31 die Kantenerfassung durchgeführt und in Schritt S32 wird die Verarbeitung eines Mustervergleichs der erhöhten Fahrbahnmarkierung in der Nähe einer Position durchgeführt, an der die Kante erfasst wird.
  • Die Kantenerfassung von Schritt S31 wird verwendet, um einen Suchbereich des Mustervergleichs (pattern matching) einzugrenzen. Der Mustervergleich in Schritt S32 wird durchgeführt durch vorheriges Registrieren von Mustern der erhöhten Fahrbahnmarkierungen 42 als Vorlagen (templates) und Erfassen der Position des Musters durch Vergleich mit den Vorlagen.
  • Danach wird in Schritt S33 die Breite der Fahrspur überprüft, ähnlich zu dem Fall der weißen Linie 41, um diejenigen Kandidaten von erhöhten Fahrbahnmarkierungen auszuschließen, welche die Bedingung nicht erfüllen. Weiter wird, da die erhöhten Fahrbahnmarkierungen mit gleichmäßigem Abstand angeordnet sind, eine Überprüfung des Abstands der Anordnung zwischen den erhöhten Fahrbahnmarkierungen in Schritt S34 durchgeführt, um die Kandidaten von erhöhten Fahrbahnmarkierungen weiter zu identifizieren. Die in Schritt S35 durchgeführte Berechnung des Ergebnisses der Fahrspurerkennung ist dieselbe wie im Fall der weißen Linie 41, und das Verfahren geht von Schritt S35 zu Schritt S36, um ein Zuverlässigkeitsmaß der Fahrspurerkennung zu berechnen. Das Verfahren zum Berechnen des Zuverlässigkeitsmaßes der Fahrspurerkennung in Schritt S36 wird später beschrieben.
  • Der Erkennungsalgorithmus 11 für einen Pfosten ist ein Algorithmus zum Erfassen von Positionen von auf der Straßenoberfläche angeordneten Pfosten 43, die ein Abkommen von der Fahrspur verhindern sollen, wie in 11(c) gezeigt wird. Der Verarbeitungsablauf des Erkennungsalgorithmus 11 für einen Pfosten wird in 5 gezeigt.
  • Da der Pfosten 43 ein zylinderförmiger Pfahl der Farbe rot oder grün ist, wird in Schritt S41 eine senkrechte Kante, ähnlich wie im Fall des Erkennungsalgorithmus 9 für eine weiße Linie, erfasst. Da die Pfosten 43 ferner mit einem Abstand ähnlich wie die erhöhten Fahrbahnmarkierungen 42 angeordnet sind, wird in Schritt S42 eine Überprüfung des Abstands der Anordnung zwischen den Pfosten durchgeführt, um die möglichen Pfosten weiter zu identifizieren.
  • Danach wird in Schritt S43 die Überprüfung der Breite der Fahrspur ähnlich wie die Fälle der weißen Linie 41 und der erhöhten Fahrbahnmarkierung 42 durchgeführt, um diejenigen Kandidaten für Pfosten auszuschließen, welche die Bedingung nicht erfüllen. Da jedoch der Pfosten 43 hoch ist, wird die Überprüfung der Breite der Fahrspur mit dem Abstand zwischen den Fußbereichen der Pfosten 43 durchgeführt. Die in Schritt S44 durchgeführte Berechnung des Ergebnisses der Fahrspurerkennung ist dieselbe wie im Fall der weißen Linie 41 und das Verfahren zum Berechnen des Zuverlässigkeitsmaßes der Fahrspurerkennung in Schritt S45 wird später erläutert.
  • Der Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche ist ein Algorithmus zum Durchführen einer Erfassung der Fahrspur, indem ein Muster auf der Straßenoberfläche analysiert wird, wenn die Erkennung der Fahrspur schwierig ist, da die Fahrbahnmarkierung 44 fast verschwindet, wie in 11(d) gezeigt wird. Der Verarbeitungsablauf des Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche wird in 6 gezeigt.
  • Der Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche setzt voraus, dass ein Densitätsmuster auf der Straßenoberfläche in die Querrichtung, das von einer Abgasspur oder einer Radspur auf einer alten bedeckten Straßenoberfläche stammt, auf ähnliche Weise ohne Veränderung nach vorne erscheint.
  • In Schritt S51 wird eine Verarbeitung der Densität in der Querrichtung durchgeführt, um Zonen 51 auf der in 12 gezeigten Straßenoberfläche mit Streifen zu versehen, um Densitätsmuster auf der Straßenoberfläche in der Querrichtung zu erfassen. 12(b) zeigt die Densitäts-Projektionen in der Querrichtung und die Ordinate zeigt den kumulativen Densitätswert und die Abszisse zeigt die Abszisse von 12(a). Indem das Muster von 12(b) auf ein Referenz-Densitätsmuster der Straßenoberfläche gesetzt wird, wird eine Mustervergleich zwischen dem Referenz-Densitätsmuster der Stra ßenoberfläche und einem Densitätsmuster der Straßenoberfläche des nächsten Rahmenbildes nur in der Querrichtung durchgeführt.
  • Das Densitätsmuster der Straßenoberfläche des nächsten Rahmenbildes stimmt mit dem Referenz-Densitätsmuster der Straßenoberfläche an einer fast gleichen Position überein, wenn sich das Fahrzeug auf einer Einzelspur bewegt. Jedoch stimmt das Densitätsmuster der Straßenoberfläche des nächsten Rahmenbildes mit dem Referenz-Densitätsmuster der Straßenoberfläche mit einer Position auf der rechten Seite überein, wenn das Fahrzeug auf die linke Seite der Straße versetzt wird, und das Densitätsmuster der Straßenoberfläche des nächsten Rahmenbildes stimmt mit dem Referenz-Densitätsmuster der Straßenoberfläche mit einer Position auf der linken Seite überein, wenn das Fahrzeug auf die rechte Seite der Straße versetzt wird.
  • Der Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche kann nur einen relativen Versatz zu dem vorhergehenden Rahmen erfassen (die vorherige Fahrspurerkennung), da er die Fahrbahnmarkierungen (die Abgrenzungslinie der Fahrspur) nicht erfassen kann. Um den absoluten Versatz in Bezug zu der Fahrspur zu messen, ist es notwendig, zu bewerten, welcher Teil des Densitätsmusters die Fahrbahnmarkierung ist.
  • Deswegen wird eine Fahrposition eines vorausfahrenden Fahrzeugs 52 unter der Voraussetzung als Bezug genommen, dass das vorausfahrende Fahrzeug 52 entlang der Mitte der Fahrspur fährt. Zuerst wird das vorausfahrende Fahrzeug in Schritt S52 erfasst. Die Erfassung des vorausfahrenden Fahrzeugs 52 wird durchgeführt, indem ein rechteckiger Bereich mit vielen Kanten in der Querrichtung gewannen wird, da das vorausfahrende Fahrzeug 52 viele Linien in der Querrichtung hat.
  • Nach dem Erfassen des vorausfahrenden Fahrzeugs 52 geht das Verfahren zu Schritt S53, um eine Verarbeitung für die Schätzung der Position der Fahrbahnmarkierung durchzuführen. Das ist, wie in 12 gezeigt, ein Straßenoberflächemuster 61 in der seitlichen Richtung in einem Abschnitt, in dem das vorausfahrende Fahrzeug 52 fährt, und dann wird eine Schätzung für die Positionen der Fahrbahnmarkierung an der Position des vorausfahrenden Fahrzeugs 52 durchgeführt. Eine Schätzung für die Positionen der Fahrbahnmarkierung in der Nähe des eigenen Fahrzeugs wird durchgeführt, indem ein Abschnitt gesucht wird, der mit dem Densitätsmuster der Straßenoberfläche übereinstimmt.
  • Deswegen wird das vorausfahrende Fahrzeug 52 als klein betrachtet, da es in der Entfernung zu dem eigenen Fahrzeug existiert. Das heißt, da der Zyklus des Densitätsmusters der Straßenoberfläche an der Position des vorausfahrenden Fahrzeugs aufgrund der Entfernung kleiner ist als der des Densitätsmusters der Straßenoberfläche in der Nähe des eigenen Fahrzeugs auf dem Bildrahmen, wird der Vergleich durch Anpassen des Zyklus durchgeführt. Durch Durchführen des Densitätsmustervergleichs der Straßenoberfläche mit der Position des vorausfahrenden Referenz-Fahrzeugs, wie oben beschrieben, kann der Versatz von der Fahrspur berechnet werden.
  • In einem Fall, in dem kein vorausfahrendes Fahrzeug existiert, wird die Erkennung unmöglich, indem in Schritt S56 das Zuverlässigkeitsmaß für die Fahrspurerkennung auf 0 gesetzt wird, da nicht beurteilt werden kann, welcher Teil in dem Densitätsmuster der Straßenoberfläche in der Querrichtung die Fahrbahnmarkierung ist.
  • Jeder der oben beschriebenen Algorithmen (der Erkennungsalgorithmus 9 für eine weiße Linie, der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung, der Erkennungsalgorithmus 11 für einen Pfosten und der Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche) gibt das Zuverlässigkeitsmaß für die Fahrspurerkennung als das Ergebnis der Fahrspurerkennung aus.
  • Das Zuverlässigkeitsmaß für die Fahrspurerkennung stellt einen Index dar, der die Zuverlässigkeit des Ergebnisses der Fahrspurerkennung ausdrückt. Wenn der Wert klein ist, ist die Wahrscheinlichkeit der Erfassung einer korrekten Position der Fahrspur niedrig, da es schwierig ist, die Fahrbahnmarkierung visuell zu beobachten. Da das Verfahren zum Setzen des Zuverlässigkeitsmaßes für die Fahrspurerkennung je nach dem verwendeten Algorithmus unterschiedlich ist, kann es willkürlich gesetzt werden. Jedoch ist das Zuverlässigkeitsmaß für die Fahrspurerkennung ein Index zur Beurteilung, ob die Fahrbahnmarkierungen erkannt werden können oder nicht, wobei der Wert normalisiert ist, damit er in dem Bereich zwischen 0 und 1 variiert. Die Zuverlässigkeit des Ergebnisses der Fahrspurerkennung ist höher, wenn sich das Zuverlässigkeitsmaß nahe bei 1 befindet, und ist niedriger, wenn sich das Zuverlässigkeitsmaß nahe bei 0 befindet.
  • Das Erkennungs-Zuverlässigkeitsmaß bei der Erfassung von Kantenpunkten, die in dem Erkennungsalgorithmus 9 für eine weiße Linie und in dem Erkennungsalgorithmus 11 für einen Pfosten durchgeführt wird, ist definiert als „Erkennungs-Zuverlässigkeitsmaß = Anzahl der Kantenpunkte der Fahrbahnmarkierung/Anzahl aller Kantenpunkte der Straßenoberfläche".
  • Das Erkennungs-Zuverlässigkeitsmaß des Mustervergleichs in dem Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung und dem Erkennungsalgorithmus 12 für Muster auf der Straßen- Oberfläche ist definiert als „Erkennungs-Zuverlässigkeitsmaß = übereinstimmender Korrelationswert".
  • Wie oben erläutert, kann die Fahrspur erkannt werden, auch wenn die Form der Fahrbahnmarkierung anders ist, indem eine Vielzahl von Bildverarbeitungsalgorithmen vorbereitet und verwendet werden.
  • Um die vorliegende Erfindung zu erläutern, wird ein Beispiel eines Ablaufs des Bildverarbeitungsalgorithmus zum allgemeinen Erkennen der weißen Linie, des Pfostens und der erhöhten Fahrbahnmarkierung in 7 gezeigt, d. h. die Verarbeitung geht von Schritt S61 bis Schritt S64.
  • Unter Bezugnahme wiederum auf 1 wird das Bildverarbeitungsalgorithmus-Auswahlmittel 4 im Folgenden beschrieben.
  • Eine absolute Position des eigenen Fahrzeugs wird von dem GPS-Empfänger 14 unter Verwendung einer elektromagnetischen Welle von einem Satelliten (nicht gezeigt) identifiziert und eine Fahrstraße des eigenen Fahrzeugs wird aus der Straßenkarte-Datendatei 16 erkannt. Information über die Formen der Fahrbahnmarkierungen (die weiße Linie, die erhöhte Fahrbahnmarkierung und der Pfosten) werden für jede Straße zu der Straßenkarte-Datendatei 16 hinzugefügt.
  • Das Fahrbahnmarkierungsart-Identifizierungsmittel 15 identifiziert eine Art der Fahrbahnmarkierungsform auf der Straße des eigenen Fahrzeugs und gibt die Art der Form der Fahrbahnmarkierung an das Bildverarbeitungssystem 13 aus. Wenn die Information über die Fahrbahnmarkierung (Bildverarbeitungsalgorithmus-Auswahlinformation) der Straße eingegeben wird, wählt das Bildverarbeitungssystem 13 einen der Bildverarbeitungsalgorithmen aus.
  • Um den Bildverarbeitungsalgorithmus auszuwählen, kann die Art des Bildverarbeitungsalgorithmus zu den Straßenkarte-Daten 16 hinzugefügt werden. Im Folgenden wird die, wie oben beschriebene, Auswahl des Bildverarbeitungsalgorithmus als ein die Straßenkarte betreffendes Verfahren bezeichnet.
  • 2 zeigt den Verarbeitungsablauf des Bildverarbeitungsmittels 6 in dem die Straßenkarte betreffenden Verfahren.
  • Zuerst wird in Schritt S1 entweder der Erkennungsalgorithmus 9 für eine weiße Linie (Schritt S2), der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung (Schritt S3) oder der Erkennungsalgorithmus 11 für einen Pfosten (Schritt S4) ausgewählt gemäß der Art der Fahrbahnmarkierung, die von dem Bildverarbeitungsalgorithmus-Auswahlmittel 4 erhalten wird.
  • Die Verarbeitung von Schritt S2 wird durchgeführt, wenn in Schritt S1 der Erkennungsalgorithmus 9 für eine weiße Linie ausgewählt wird. Die Fahrspur wird unter Verwendung der Kanteninformation der weißen Linie 41 oder des hohen Densitätswerts des Abschnitts der weißen Linie erfasst. Die Ausgabe ist das Ergebnis der Fahrspurerkennung und das Zuverlässigkeitsmaß für die Fahrspurerkennung.
  • Die Verarbeitung von Schritt S3 wird durchgeführt, wenn in Schritt S1 der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung ausgewählt wird. Das Muster der erhöhten Fahrbahnmarkierung 42 ist als eine Vorlage vorher registriert und Positionen der Muster werden erfasst. Der Schritt S3 wird ausgeführt, wenn in Schritt S1 der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung ausgewählt wird.
  • Die Verarbeitung von Schritt S4 wird durchgeführt, wenn in Schritt S1 der Erkennungsalgorithmus 11 für einen Pfosten ausgewählt wird. Die Fahrspur wird erfasst durch Verwendung von Kanteninformation in der senkrechten Richtung und/oder Farbinformation oder unter Verwendung einer Bildtechnologie für feste Körper, da der Pfosten eine Höhe aufweist. In dem Fall der erhöhten Fahrbahnmarkierung, die nachts Licht ausstrahlt, kann die erhöhte Fahrbahnmarkierung dieser Art unter Verwendung von Densitätsinformation erfasst werden. Der Schritt S3 wird ausgeführt, wenn in Schritt S1 der Erkennungsalgorithmus 10 für eine erhöhte Fahrbahnmarkierung ausgewählt wird.
  • In Schritt S5 wird aus dem in Schritt S2, Schritt S3 oder Schritt S4 erhaltenen Zuverlässigkeitsmaß für die Fahrspurerkennung beurteilt, ob die Fahrspur erfasst werden konnte. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung einen vorgegebenen Schwellenwert überschreitet, geht die Verarbeitung zu Schritt S8 unter der Annahme, dass die Fahrspur erfasst wurde. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung den vorgegebenen Schwellenwert nicht überschreitet, geht die Verarbeitung zu Schritt S6 unter der Annahme, dass die Fahrspur nicht erfasst wurde. Hier bedeutet der Schwellenwert einen Beurteilungsindex zur Einschätzung, dass die Fahrspur erkannt wurde, wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung den Wert überschreitet. Der Wert wird anfangs auf ungefähr 0.5 gesetzt und wird dann angepasst, indem er abhängig von der Erfassung erhöht oder verringert wird.
  • Die Verarbeitung von Schritt S6 wird durchgeführt, wenn die Fahrspur von einem der in Schritt S1 ausgewählten Bildverarbeitungsalgorithmen 9 bis 11 nicht erfasst werden kann. In einem derartigen Fall wird, da die Fahrbahnmarkierungen aufgrund einer Auswirkung einer Verschlechterung oder Verschmutzung durch Abgas oder Schneefall visuell schwierig zu erfassen sein können, die Erfassungsverarbeitung der Fahrspur wiederum durch den Erkennungsalgorithmus 12 für Muster auf der Straßenoberfläche durchgeführt, der die Fahrspur unter Verwendung einer von Fahrbahnmarkierungen unterschiedlichen Information erkennen kann. Die Ausgabe des Verarbeitungsergebnisses in Schritt S6 ist das Ergebnis der Fahrspurerkennung und das Zuverlässigkeitsmaß für die Fahrspurerkennung.
  • In Schritt S7 wird aus dem in Schritt S6 erhaltenen Zuverlässigkeitsmaß für die Fahrspurerkennung beurteilt, ob die Fahrspur erfasst werden kann oder nicht. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung einen vorgegebenen Schwellenwert überschreitet, geht die Verarbeitung zu Schritt S8 unter der Annahme, dass die Fahrspur erfasst wurde. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung den vorgegebenen Schwellenwert nicht überschreitet, geht die Verarbeitung zu Schritt S9 unter der Annahme, dass die Fahrspur nicht erfasst wurde.
  • Die Verarbeitung von Schritt S8 wird durchgeführt, wenn entschieden wurde, dass die Fahrspur erfasst wurde. Das Ergebnis der Fahrspurerkennung wird an den Fahrspur-Beibehaltung-Steuerungsteil 2 ausgegeben. Die Verarbeitung von Schritt S9 wird durchgeführt, wenn entschieden wurde, dass die Fahrspur nicht erfasst wurde. Information über die Unfähigkeit einer Fahrspur-Erfassung wird an den Fahrspur-Beibehaltung-Steuerungsteil 2 ausgegeben.
  • Gemäß dem die Straßenkarte betreffenden Verfahren kann immer einer der optimalen. Bildverarbeitungsalgorithmen ausgewählt werden; wenn die Form der Fahrbahnmarkierung oder der optimale Bildverarbeitungsalgorithmus in den Straßenkarte-Daten gespeichert ist. Demgemäß können unnötige Versuche verringert werden und ein sehr zuverlässiges System zur Fahrspurerkennung kann bereitgestellt werden.
  • Ferner kann, obwohl in 1 ein Beispiel der Verwendung eines GPS und der Straßenkarte-Daten beschrieben wird, um die Form der Fahrbahnmarkierung auf der Straßenoberfläche zu erkennen, die Form der Fahrbahnmarkierung erkannt werden unter Verwendung einer Straße-zu-Fahrzeug-Kommunikation unter Verwendung einer Bake (beacon), wie in 8 gezeigt. Dieselbe Funktion kann durch das Verfahren erreicht werden, in dem ein Bakenempfänger 21 an dem Fahrzeug befestigt ist und die Information über die Fahrbahnmarkierung direkt von der in der Straße installierten Bake empfangen wird.
  • 9 zeigt einen weiteren Aufbau der vorliegenden Erfindung. Die in 9 gezeigte Erfindung ist derart aufgebaut, dass der Bildverarbeitungsalgorithmus ohne Verwendung des die Straßenkarte betreffenden Verfahrens ausgewählt wird.
  • In 9 wird der Teil, der dem von 1 entspricht, mit demselben Bezugszeichen identifiziert. Das Bildverarbeitungsalgorithmus-Auswahlmittel 4 von 9 weist eine Zuverlässigkeitsmaß-Ergebnis-Datei 32 des in dem vorhergehenden Rahmen ausgewählten Bildverarbeitungsalgorithmus auf. Die Zuverlässigkeitsmaß-Ergebnis-Datei 32 speichert die Art des Fahrspurerkennungsalgorithmus und das Zuverlässigkeitsmaß für die Fahrspurerkennung des vorhergehenden Rahmens.
  • Ein Algorithmus-Auswahlmittel 31 betrifft den vorher ausgewählten Bildverarbeitungsalgorithmus, der in der Zuverlässigkeitsmaß-Ergebnis-Datei 32 gespeichert ist, und verwendet direkt den früheren Bildverarbeitungsalgorithmus, wenn die Fahrspur vorher erkannt werden kann. Dies ist ein Verfahren unter Verwendung der Kontinuität, mit der Fahrbahnmarkierungen derselben Form normalerweise kontinuierlich in Erscheinung treten. Im Folgenden wird die Auswahl des Bildverarbeitungsalgorithmus dieses Typs als ein Verfahren zur kontinuierlichen Verwendung desselben Algorithmus bezeichnet. Bei diesem Verfahren wird der andere Algorithmus nur dann ausprobiert und verwendet, wenn die Fahrspur vorher nicht erkannt werden kann.
  • 10 zeigt den Verarbeitungsablauf des Verfahren zur kontinuierlichen Verwendung desselben Algorithmus.
  • In Schritt S11 wird gemäß des Zuverlässigkeitsmaßes für die Fahrspurerkennung des in dem vorherigen Rahmen ausgewählten Bildverarbeitungsalgorithmus entschieden, welcher Bildverarbeitungsalgorithmus dieses Mal verwendet werden soll. Wenn der Wert des Zuverlässigkeitsmaßes für die Fahrspurerkennung des in dem vorherigen Rahmen ausgewählten Bildverarbeitungsalgorithmus höher ist als ein vorgegebener Schwellenwert, wird angenommen, dass die Fahrspur-Erfassung durch den in dem vorherigen Rahmen ausgewählten Bildverarbeitungsalgorithmus erfolgreich war, und die Verarbeitung geht zu Schritt S12. Wenn nicht, geht die Verarbeitung zu Schritt S14. Da es jedoch in der anfänglichen Durchführung kein Ergebnis für die Durchführung des vorherigen Rahmens gibt, geht die Verarbeitung beim ersten Mal direkt zu Schritt S14.
  • In Schritt S12 wird der Bildverarbeitungsalgorithmus, durch den beurteilt wurde, dass die Fahrspur in dem vorherigen Rahmen erfasst wurde, direkt verwendet. Die Arten des Bildverarbeitungsalgorithmus sind der Erkennungsalgorithmus für eine weiße Linie, der Erkennungsalgorithmus für eine erhöhte Fahrbahnmarkierung, der Erkennungsalgorithmus für einen Pfosten und der Erkennungsalgorithmus für Muster auf der Straßenoberfläche. Die Ausgabe des Verarbeitungsergebnisses in Schritt S12 ist das Ergebnis der Fahrspurerkennung und das Zuverlässigkeitsmaß für die Fahrspurerkennung.
  • In Schritt S13 wird aus dem in Schritt S12 erhaltenen Zuverlässigkeitsmaß für die Fahrspurerkennung beurteilt, ob die Fahrspur erfasst werden kann oder nicht. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung einen vorgegebenen Wert übersteigt, geht die Verarbeitung unter der Annahme zu Schritt S17, dass die Fahrspur erfasst wurde. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung den vorgegebenen Wert nicht übersteigt, geht die Verarbeitung unter der Annahme zu Schritt S14, dass die Fahrspur nicht erfasst wurde.
  • Die Verarbeitung von Schritt S14 wird durchgeführt, wenn entschieden ist, dass die Fahrspur als Ergebnis der Durchführung des Bildverarbeitungsalgorithmus nicht erfasst wurde oder wenn die Fahrspur von dem vorher ausgewählten Bildverarbeitungsalgorithmus nicht erfasst werden kann. In diesem Fall werden die bisher noch nicht durchgeführten Bildverarbeitungsalgorithmen einer nach dem anderen ausgeführt. Die Ausgabe des Verarbeitungsergebnisses in Schritt S14 ist das Ergebnis der Fahrspurerkennung und das Zuverlässigkeitsmaß für die Fahrspurerkennung.
  • In Schritt S15 wird aus dem in Schritt S14 erhaltenen Zuverlässigkeitsmaß für die Fahrspurerkennung beurteilt, ob die Fahrspur erfasst werden kann oder nicht. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung einen vorgegebenen Wert übersteigt, geht die Verarbeitung unter der Annahme zu Schritt S17, dass die Fahrspur erfasst wurde. Wenn das Zuverlässigkeitsmaß für die Fahrspurerkennung den vorgegebenen Wert nicht übersteigt, geht die Verarbei tung unter der Annahme zu Schritt S16, dass die Fahrspur nicht erfasst wurde.
  • Schritt S16 ist eine Verzweigung, die für die Versuche der bisher noch nicht durchgeführten Algorithmen vorgesehen ist, wenn die Erfassung der Fahrspur nicht gelingt. Wenn bisher noch nicht durchgeführte Bildverarbeitungsalgorithmen verbleiben, geht die Verarbeitung zu Schritt S14 zurück. Wenn alle Bildverarbeitungsalgorithmen durchgeführt wurden, geht die Verarbeitung zu Schritt S18.
  • Da es jedoch lange dauert, alle Algorithmen durchzuführen, kann eine Störung in der Steuerung des Fahrspur-Beibehaltung-Steuerungsteils 2 während der Fahrt des Fahrzeugs mit hoher Geschwindigkeit auftreten. In einem derartigen Fall kann, unter Verwendung von Fahrtgeschwindigkeitsinformation des Fahrzeugs, das Erkennungsergebnis innerhalb einer zulässigen Verarbeitungszeit ausgegeben werden, indem die Anzahl der Verarbeitungen bei einer Fahrt mit hoher Geschwindigkeit begrenzt wird, und die Genauigkeit der Erkennung kann verbessert werden, indem die Anzahl der Verarbeitungen bei einer Fahrt mit geringer Geschwindigkeit erhöht wird.
  • Die Verarbeitung von Schritt S17 wird durchgeführt, wenn entschieden wird, dass die Fahrspur erfasst wurde. Das Ergebnis der Fahrspurerkennung wird an den Fahrspur-Beibehaltung-Steuerungsteil 2 ausgegeben. Die Verarbeitung von Schritt S18 wird durchgeführt, wenn entschieden wird, dass die Fahrspur nicht erfasst wurde. Information über die Unfähigkeit einer Fahrspur-Erfassung wird an den Fahrspur-Beibehaltung-Steuerungsteil 2 ausgegeben.
  • Wie oben erläutert, kann man in dem Verfahren zur kontinuierlichen Verwendung desselben Algorithmus, da die tatsächlichen Fahrbahnmarkierungen einer Straße nicht bekannt sind, nicht immer sicher sein, dass der für die Form der Fahrbahnmarkierung der Straße geeignete Bildverarbeitungsalgorithmus durchgeführt wird. Deswegen kann dies, obwohl die Zuverlässigkeit des Ergebnisses der Erkennung im Vergleich zu der Zuverlässigkeit des die Straßenkarte betreffenden Verfahrens geringer ist, genauso sicher sein wie in dem Fall, in dem alle Bildverarbeitungsalgorithmen durchgeführt werden.
  • Jedoch kann das Verfahren zur kontinuierlichen Verwendung desselben Algorithmus eine Verarbeitung mit hoher Geschwindigkeit durchführen im Vergleich zu dem Fall, in dem alle Bildverarbeitungsalgorithmen durchgeführt werden. Ferner erfordert das Bildverarbeitungsalgorithmus-Auswahlmittel 4 nur die Bildverarbeitungs-Datendatei 11 und nicht den GPS-Empfänger 14 und die Straßenkarte-Daten 16. Deswegen kann das Verfahren zur kontinuierlichen Verwendung desselben Algorithmus ein System zur Fahrspurerkennung liefern, das einfacher als die Struktur des die Straßenkarte betreffenden Verfahrens ist.
  • Die Fahrspur wird erfasst, wie oben beschrieben wird. In dem Verfahren zur kontinuierlichen Verwendung desselben Algorithmus weist das Bildverarbeitungsmittel zur Bildverarbeitung eines Straßenbilds die Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen auf, und die Fahrspur wird durch die Auswahl eines Bildverarbeitungsalgorithmus, der für die Fahrspur geeignet ist, aus der Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen erfasst. Somit kann die Genauigkeit der Fahrspurerkennung verbessert werden, indem die Vielzahl von Fahrbahnmarkierungsarten zuverlässig erfasst wird.
  • Wie oben erläutert, wird die Fahrspur erfasst durch Auswahl des Bildverarbeitungsalgorithmus durch das System zur Fahrspurerkennung selbst. Jedoch kann offensichtlich derselbe Effekt erreicht wer den, indem der Fahrer des Fahrzeugs die Fahrbahnmarkierung visuell identifiziert und manuell einen der Bildverarbeitungsalgorithmen auswählt.
  • Gemäß der vorliegenden Erfindung weist das Bildverarbeitungsmittel zur Bildverarbeitung eines Straßenbilds die Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen auf, und die Fahrspur wird durch die Auswahl eines Bildverarbeitungsalgorithmus, der für die Fahrspur geeignet ist, aus der Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen erfasst. Somit kann die Genauigkeit der Fahrspurerkennung verbessert werden, indem die Vielzahl von Fahrbahnmarkierungsarten zuverlässig erfasst wird.

Claims (10)

  1. System zur Fahrspurerkennung, mit: einem Abbildungsmittel (5) zum Aufnehmen eines Bildes einer Strasse vor einem Fahrzeug, wobei das Abbildungsmittel (5) an dem Fahrzeug befestigt ist; einem Bildverarbeitungsmittel (6) zum Erfassen der Fahrspur des Fahrzeugs aus dem von dem Abbildungsmittel (5) aufgenommenen Bild der Strasse, dadurch gekennzeichnet, dass das Bildverarbeitungsmittel (6) eine Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen (9, 10, 11) aufweist, die einzeln verschiedenen Fahrbahnmarkierungen (41, 42, 43, 44) der auf der Strasse verlaufenden Fahrspur entsprechen; und ein Bildverarbeitungsalgorithmus-Auswahlmittel (4) vorgesehen ist, um die Art der Fahrbahnmarkierung (41, 42, 43, 44) der Strasse, auf der das Fahrzeug fährt, zu identifizieren, und um einen der von dem Bildverarbeitungsmittel (6) verwendeten Bildverarbeitungsalgorithmen (9, 10, 11) auszuwählen, um die Fahrspur zu erfassen.
  2. System zur Fahrspurerkennung gemäß Anspruch 1, dadurch gekennzeichnet, dass das Bildverarbeitungsmittel (6) einen Straßenoberflächemuster-Erkennungsalgorithmus (12) aufweist, um eine Straßenmuster-Erkennungsverarbeitung der Strasse durchzuführen, wenn die Fahrspur von der Vielzahl von Bildverarbeitungsalgorithmen (9, 10, 11) nicht erfasst werden kann.
  3. System zur Fahrspurerkennung gemäß Anspruch 1 oder 2, gekennzeichnet durch ein Positions-Erfassungsmittel (14) zum Erfassen einer Position der Strasse, auf der ein Fahrzeug fährt; eine Straßenkarte-Datendatei (16) zum Speichern der individuellen Arten von Fahrbahnmarkierungen (41, 42, 43, 44) für die Strassen; und ein Fahrbahnmarkierungs-Identifizierungsmittel (15) zum Erfassen und Identifizieren der Arten von Fahrbahnmarkierung (41, 42, 43, 44) der Strasse, auf der das Fahrzeug fährt, auf Grundlage einer Positionsinformation des Positions-Erfassungsmittel (14), und zum Auswählen des von dem Bildverarbeitungsmittel (6) verwendeten Bildverarbeitungsalgorithmus, um die Fahrspur zu erfassen.
  4. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Abbildungsmittel eine Kamera (5) zum Aufnehmen eines Bildes der Strasse vor einem Fahrzeug ist, wobei die Kamera (5) an dem Fahrzeug befestigt ist.
  5. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Positions-Erfassungsmittel ein GPS-Empfangsmittel (14) zum Empfangen von Positionsinformation von einem Satelliten für die Strasse ist, auf der das Fahrzeug fährt.
  6. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1, 2 oder 4, gekennzeichnet durch ein Signal-Empfangsmittel (21) zum Empfangen von Fahrbahnmarkierungs-Forminformation für die Strasse, auf der das Fahr zeug fährt, von einem Strasse-zu-Fahrzeug-Kommunikationssystem; und ein Fahrbahnmarkierungs-Art-Identifizierungsmittel (22) zum Erfassen und Identifizieren der Art der Fahrbahnmarkierung (41, 42, 43, 44) der Strasse, auf der das Fahrzeug fährt, auf Grundlage der von dem Signal-Empfangsmittel (21) erhaltenen Fahrbahnmarkierungs-Forminformation, und zum Auswählen eines von dem Bildverarbeitungsmittel (6) zum Erfassen der Fahrspur verwendeten Bildverarbeitungsalgorithmus.
  7. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Vielzahl verschiedener Arten von Bildverarbeitungsalgorithmen (9, 10, 11) einzeln verschiedenen Arten auf der Strasse angeordneten Fahrbahnmarkierungen entspricht, wie einer weißen Linie (41), einer erhöhten Fahrbahnmarkierung (42) und Pfosten (43).
  8. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der Bildverarbeitungsalgorithmus (9, 10, 11, 12) des Bildverarbeitungsmittels (6) umfasst Erfassen der Fahrspur auf Grundlage einer Kanteninformation der Fahrbahnmarkierung (41, 42, 43, 44), Erfassen der Fahrspur auf Grundlage eines Mustervergleichs unter Verwendung einer Musterform der Fahrbahnmarkierung (41, 42, 43, 44), und Erfassen der Fahrspur auf Grundlage von Densitäts-Projektions-Information einer Straßenoberfläche.
  9. System zur Fahrspurerkennung gemäß zumindest einem der Ansprüche 1 bis 8, gekennzeichnet durch ein Bildverarbeitungsalgorithmus-Auswahlmittel (4), das einen der Bildverarbeitungsalgorithmen (9, 10, 11, 12) auswählt, der zum Erfassen der Fahrspur des Fahrzeugs zum jetzigen Zeitpunkt auf Grundlage eines Erkennungs-Zuverlässigkeitsmaßes eines Bildverarbeitungsalgorithmus (9, 10, 11, 12) eingesetzt wird, der zum Erfassen der Fahrspur des Fahrzeugs zu einem vorhergehenden Zeitpunkt von dem Bildverarbeitungsmittel (6) eingesetzt wurde.
  10. System zur Fahrspurerkennung gemäß Anspruch 9, dadurch gekennzeichnet, dass das Bildverarbeitungsalgorithmus-Auswahlmittel (4) eine Ergebnis-Datei für die Algorithmus-Erkennungs-Zuverlässigkeitsmaße (32) zum Speichern einer Historie der früher ausgewählten Arten und Zuverlässigkeitsmaße der Bildverarbeitungsalgorithmen (9, 10, 11, 12) aufweist und einen der Bildverarbeitungsalgorithmen (9, 10, 11, 12) auf Grundlage der Historie auswählt.
DE60202341T 2001-10-17 2002-10-11 System zur Fahrspurerkennung Expired - Lifetime DE60202341T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001319172A JP4327389B2 (ja) 2001-10-17 2001-10-17 走行レーン認識装置
JP2001319172 2001-10-17

Publications (2)

Publication Number Publication Date
DE60202341D1 DE60202341D1 (de) 2005-01-27
DE60202341T2 true DE60202341T2 (de) 2005-12-22

Family

ID=19136757

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60202341T Expired - Lifetime DE60202341T2 (de) 2001-10-17 2002-10-11 System zur Fahrspurerkennung

Country Status (4)

Country Link
US (1) US7295682B2 (de)
EP (1) EP1304607B1 (de)
JP (1) JP4327389B2 (de)
DE (1) DE60202341T2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8265872B2 (en) 2008-09-08 2012-09-11 Toyota Jidosha Kabushiki Kaisha Road surface division mark recognition apparatus, and lane departure prevention apparatus
US8676492B2 (en) 2006-01-19 2014-03-18 GM Global Technology Operations LLC Map-aided vision-based lane sensing
DE102011005969B4 (de) 2010-03-23 2022-10-20 Denso Corporation In einem Fahrzeug montierte Vorrichtung zur Erfassung einer Linienmarkierung

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
JPH0848937A (ja) * 1994-08-04 1996-02-20 Cosmo Oil Co Ltd 新規塑性加工コート剤組成物
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
EP1504276B1 (de) * 2002-05-03 2012-08-08 Donnelly Corporation Objektdetektionssystem für ein fahrzeug
JP3997885B2 (ja) * 2002-10-17 2007-10-24 日産自動車株式会社 レーンマーカ認識装置
JP3979339B2 (ja) * 2003-05-12 2007-09-19 日産自動車株式会社 車線逸脱防止装置
DE10323915A1 (de) * 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug
US7510038B2 (en) * 2003-06-11 2009-03-31 Delphi Technologies, Inc. Steering system with lane keeping integration
KR100559870B1 (ko) * 2003-11-04 2006-03-13 현대자동차주식회사 차량의 주행차로 변경방법
US7415335B2 (en) * 2003-11-21 2008-08-19 Harris Corporation Mobile data collection and processing system and methods
JP4107587B2 (ja) * 2003-12-17 2008-06-25 三菱電機株式会社 車線認識画像処理装置
JP2005251106A (ja) 2004-03-08 2005-09-15 Mitsubishi Electric Corp 車線認識装置
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
DE102005018697A1 (de) * 2004-06-02 2005-12-29 Daimlerchrysler Ag Verfahren und Vorrichtung zur Warnung eines Fahrers im Falle eines Verlassens der Fahrspur
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
DE102005002719A1 (de) * 2005-01-20 2006-08-03 Robert Bosch Gmbh Verfahren zur Kursprädiktion in Fahrerassistenzsystemen für Kraftfahrzeuge
JP4321821B2 (ja) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
JP2006208223A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 車両位置認識装置及び車両位置認識方法
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
JP4358147B2 (ja) * 2005-04-28 2009-11-04 本田技研工業株式会社 車両及びレーンマーク認識装置
JP4603421B2 (ja) * 2005-05-27 2010-12-22 本田技研工業株式会社 車両、画像処理システム、画像処理方法、及び画像処理プログラム
JP4392389B2 (ja) 2005-06-27 2009-12-24 本田技研工業株式会社 車両及び車線認識装置
JP4365350B2 (ja) * 2005-06-27 2009-11-18 本田技研工業株式会社 車両及び車線認識装置
JP4365352B2 (ja) 2005-07-06 2009-11-18 本田技研工業株式会社 車両及びレーンマーク認識装置
JP4556133B2 (ja) * 2005-07-19 2010-10-06 本田技研工業株式会社 車両
JP4822766B2 (ja) * 2005-08-18 2011-11-24 富士通株式会社 路面標示認識装置及びシステム
JP4532372B2 (ja) * 2005-09-02 2010-08-25 トヨタ自動車株式会社 道路区画線検出装置
EP1968014B1 (de) * 2005-12-28 2012-12-19 Honda Motor Co., Ltd. Fahrzeug und spurenmarkierungsdetektionseinrichtung
JP4901275B2 (ja) * 2006-04-07 2012-03-21 富士重工業株式会社 走行誘導障害物検出装置および車両用制御装置
JP4680131B2 (ja) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 自車位置測定装置
US7972045B2 (en) 2006-08-11 2011-07-05 Donnelly Corporation Automatic headlamp control system
DE102006038018A1 (de) 2006-08-14 2008-02-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerassistenz durch Erzeugung von Spurinformationen zur Unterstützung oder zum Ersatz von Spurinformationen einer videobasierten Spurinformationseinrichtung
EP1906339B1 (de) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Verfahren zur Erkennung eines Objekts auf einem Bild und Bilderkennungsvorrichtung
FR2906362B1 (fr) * 2006-09-26 2009-01-02 Valeo Vision Sa Procede de determination anticipee d'un virage sur une portion de route et systeme associe.
JP4605145B2 (ja) 2006-11-14 2011-01-05 トヨタ自動車株式会社 車線検出装置
JP2008168811A (ja) * 2007-01-12 2008-07-24 Honda Motor Co Ltd 車線認識装置、車両、車線認識方法、及び車線認識プログラム
JP4703605B2 (ja) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
JP4446204B2 (ja) * 2007-10-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置及び車両用ナビゲーションプログラム
DE102007051966A1 (de) * 2007-10-31 2009-05-07 Adc Automotive Distance Control Systems Gmbh Verfahren und Vorrichtung zur Erkennung des Verlaufs einer Fahrspur
JP4973736B2 (ja) * 2007-12-05 2012-07-11 日本電気株式会社 路面標示認識装置,路面標示認識方法及び路面標示認識プログラム
US8320615B2 (en) * 2008-02-27 2012-11-27 Honeywell International Inc. Systems and methods for recognizing a target from a moving platform
JP5359516B2 (ja) * 2008-07-29 2013-12-04 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
EP2179892A1 (de) 2008-10-24 2010-04-28 Magna Electronics Europe GmbH & Co. KG Verfahren zum automatischen Kalibrieren einer virtuellen Kamera
US20100114431A1 (en) * 2008-10-31 2010-05-06 Volkswagen Group Of America, Inc. Method for Controlling Vehicle Dynamics
US9090285B2 (en) * 2008-12-05 2015-07-28 Volkswagen Group Of America, Inc. Method for providing a lanekeeping assistance based on modifying mechanical sources of steering torques
JP5233696B2 (ja) * 2009-01-21 2013-07-10 株式会社デンソー レーン境界線検出装置、境界線検出プログラム、および逸脱警報装置
JP4788778B2 (ja) * 2009-01-27 2011-10-05 株式会社デンソー 逸脱警報装置、および逸脱警報プログラム
US8964032B2 (en) 2009-01-30 2015-02-24 Magna Electronics Inc. Rear illumination system
JP5375249B2 (ja) * 2009-03-25 2013-12-25 株式会社Ihi 移動経路計画装置、移動体制御装置及び移動体
DE102009003698A1 (de) 2009-03-30 2010-10-07 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Fahrspurerkennung
JP4988786B2 (ja) 2009-04-09 2012-08-01 株式会社日本自動車部品総合研究所 境界線認識装置
FR2947231B1 (fr) * 2009-06-30 2013-03-29 Valeo Vision Procede pour determiner de maniere predictive des situations routieres d'un vehicule
DE102009027547A1 (de) * 2009-07-08 2011-01-13 Robert Bosch Gmbh Assistenzsystem für ein Kraftfahrzeug
JP5564920B2 (ja) * 2009-12-08 2014-08-06 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法及びコンピュータプログラム
TW201122848A (en) * 2009-12-29 2011-07-01 Ind Tech Res Inst Method and system for calculating image recognition rate and embedded image processing system
EP2523831B1 (de) 2010-01-13 2015-12-16 Magna Electronics Inc. Fahrzeugkamera und verfahren zur regelmässigen kalibrierung der fahrzeugkamera
US8612164B2 (en) * 2010-02-10 2013-12-17 Chevron U.S.A. Inc. Method of maintaining a pipeline
JP5220787B2 (ja) 2010-03-08 2013-06-26 株式会社日本自動車部品総合研究所 車載白線認識装置
JP5035371B2 (ja) * 2010-03-15 2012-09-26 アイシン精機株式会社 横断歩道検出装置、横断歩道検出システム,横断歩道検出方法及びプログラム
JP6180928B2 (ja) * 2010-05-11 2017-08-16 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 走行細長通路を求める方法
US20120314070A1 (en) * 2011-06-09 2012-12-13 GM Global Technology Operations LLC Lane sensing enhancement through object vehicle information for lane centering/keeping
US9098751B2 (en) 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
DE102012103669A1 (de) 2012-04-26 2013-10-31 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
CN103489149B (zh) * 2012-06-08 2017-08-29 联想(北京)有限公司 一种图像获取的方法及一种电子设备
KR101428165B1 (ko) * 2012-06-29 2014-08-07 엘지이노텍 주식회사 차선이탈 경고 시스템 및 차선이탈 경고 방법
US9109907B2 (en) * 2012-07-24 2015-08-18 Plk Technologies Co., Ltd. Vehicle position recognition apparatus and method using image recognition information
DE102012106932A1 (de) 2012-07-30 2014-05-15 Continental Teves Ag & Co. Ohg Verfahren zur Darstellung einer Fahrzeugumgebung mit Positionspunkten
TWI625260B (zh) * 2012-11-20 2018-06-01 Method and system for detecting lane curvature by using body signal
TW201434695A (zh) * 2013-03-08 2014-09-16 E Lead Electronic Co Ltd 行車安全距離顯示方法
DE102013017795C5 (de) * 2013-10-25 2018-01-04 Lessmüller Lasertechnik GmbH Prozessüberwachungsverfahren und -vorrichtung
US9778366B2 (en) 2014-01-22 2017-10-03 Empire Technology Development Llc Relative GPS data refinement
JP2016134136A (ja) * 2015-01-22 2016-07-25 キャンバスマップル株式会社 画像処理装置、および画像処理プログラム
JP6174644B2 (ja) * 2015-09-01 2017-08-02 本田技研工業株式会社 画像処理装置
US11228700B2 (en) 2015-10-07 2022-01-18 Magna Electronics Inc. Vehicle vision system camera with adaptive field of view
JP6611334B2 (ja) * 2016-02-29 2019-11-27 クラリオン株式会社 区画線認識装置
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
CN109074662A (zh) * 2016-05-18 2018-12-21 松下知识产权经营株式会社 分道确定方法以及分道确定装置
US10300859B2 (en) 2016-06-10 2019-05-28 Magna Electronics Inc. Multi-sensor interior mirror device with image adjustment
JP6835499B2 (ja) * 2016-07-29 2021-02-24 株式会社ゼンリン 制御システム及び制御システムに用いられる地図データのデータ構造
JP6302519B2 (ja) * 2016-09-06 2018-03-28 株式会社Subaru 車両の運転支援装置
JP6637399B2 (ja) * 2016-09-30 2020-01-29 株式会社デンソー 領域認識装置及び領域認識方法
WO2018180081A1 (ja) * 2017-03-29 2018-10-04 パイオニア株式会社 劣化地物特定装置、劣化地物特定システム、劣化地物特定方法、劣化地物特定プログラム及び劣化地物特定プログラムを記録したコンピュータ読み取り可能な記録媒体
JP6450413B2 (ja) * 2017-03-31 2019-01-09 本田技研工業株式会社 車両制御装置
US10296795B2 (en) 2017-06-26 2019-05-21 Here Global B.V. Method, apparatus, and system for estimating a quality of lane features of a roadway
WO2019003295A1 (ja) * 2017-06-27 2019-01-03 本田技研工業株式会社 走行制御システムおよび車両の制御方法
JP6830865B2 (ja) * 2017-07-03 2021-02-17 アルパイン株式会社 車線認識装置
JP6935977B2 (ja) * 2017-07-31 2021-09-15 アルパイン株式会社 レーンマーク検出装置
DE102017123842A1 (de) 2017-10-13 2019-04-18 Connaught Electronics Ltd. Fahrspurerfassungsverfahren
US10895460B2 (en) * 2017-11-06 2021-01-19 Cybernet Systems Corporation System and method for generating precise road lane map data
US11273836B2 (en) * 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
EP3567518B1 (de) 2018-05-08 2022-05-18 Aptiv Technologies Limited Fahrbahnmarkierungserkennung
US11138447B2 (en) * 2018-06-01 2021-10-05 Connaught Electronics Ltd. Method for detecting raised pavement markers, computer program product and camera system for a vehicle
CN109657641B (zh) * 2018-12-29 2021-02-02 北京经纬恒润科技股份有限公司 一种车辆主辅路判断方法及装置
US11249184B2 (en) 2019-05-07 2022-02-15 The Charles Stark Draper Laboratory, Inc. Autonomous collision avoidance through physical layer tracking
US20200361452A1 (en) * 2019-05-13 2020-11-19 Toyota Research Institute, Inc. Vehicles and methods for performing tasks based on confidence in accuracy of module output
CN112289022B (zh) * 2020-09-29 2022-02-25 西安电子科技大学 基于时空背景比对的黑烟车检测判定方法及系统
JP2022060074A (ja) * 2020-10-02 2022-04-14 株式会社Subaru 車両の運転支援装置
CN112511383A (zh) * 2020-11-26 2021-03-16 杭州迪普信息技术有限公司 网络流量监测方法及装置
CN114596698B (zh) * 2020-12-03 2024-01-23 腾讯科技(深圳)有限公司 道路监控设备位置判断方法、装置、存储介质及设备
KR102443142B1 (ko) * 2021-12-27 2022-09-14 주식회사 소네트 향상된 차선 인식 기능을 가지는 조향 제어 장치 및 방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6168909A (ja) * 1984-09-12 1986-04-09 日本メクトロン株式会社 車間距離標示用道路標示構造
JPH07104943B2 (ja) * 1988-02-29 1995-11-13 株式会社日立製作所 物体認識装置
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JP2687645B2 (ja) * 1990-01-24 1997-12-08 トヨタ自動車株式会社 車両用位置標定装置
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
JP2888735B2 (ja) 1993-06-01 1999-05-10 松下電器産業株式会社 走行レーン検出装置
JP2798349B2 (ja) 1993-11-08 1998-09-17 松下電器産業株式会社 車両位置検出装置
JP3146807B2 (ja) 1993-11-15 2001-03-19 トヨタ自動車株式会社 道路白線検出装置
JP3290318B2 (ja) * 1994-11-30 2002-06-10 三菱電機株式会社 車載用画像処理装置、車載用道路監視装置及び車両制御装置
US6526352B1 (en) * 2001-07-19 2003-02-25 Intelligent Technologies International, Inc. Method and arrangement for mapping a road
JP3413745B2 (ja) * 1995-12-18 2003-06-09 株式会社日立製作所 画像処理による走行路面の監視装置
JPH09223218A (ja) * 1996-02-15 1997-08-26 Toyota Motor Corp 走路検出方法及び装置
JP3588922B2 (ja) * 1996-07-08 2004-11-17 トヨタ自動車株式会社 車両走行誘導システム
US5835028A (en) * 1997-05-05 1998-11-10 Bender; Lee Lane marker position sensor and alarm
JPH10320559A (ja) * 1997-05-20 1998-12-04 Nissan Motor Co Ltd 車両用走行路検出装置
JPH1166488A (ja) * 1997-08-21 1999-03-09 Honda Motor Co Ltd 白線認識装置
JPH1186182A (ja) * 1997-09-01 1999-03-30 Honda Motor Co Ltd 自動運転制御システム
JP3527084B2 (ja) 1998-01-13 2004-05-17 明星食品株式会社 即席乾燥麺類の製造方法
JP4329088B2 (ja) * 1998-02-18 2009-09-09 株式会社エクォス・リサーチ 車両制御装置
JP3509620B2 (ja) * 1998-04-21 2004-03-22 株式会社デンソー 画像前処理装置、レーンマーク認識装置、車両走行制御装置および記録媒体
KR20000025578A (ko) * 1998-10-13 2000-05-06 윤종용 차로의 모델링 방법 및 그를 이용한 차선 인식 방법
JP2000302055A (ja) * 1999-04-20 2000-10-31 Honda Motor Co Ltd 車線追従制御装置
JP3333468B2 (ja) * 1999-05-24 2002-10-15 本田技研工業株式会社 車両自律走行の走行路画像処理装置
JP2001014595A (ja) * 1999-06-29 2001-01-19 Mitsubishi Motors Corp 車両用走行レーン検知装置
JP3785880B2 (ja) * 1999-11-18 2006-06-14 株式会社明電舎 映像監視システムおよび映像監視方法
US6819779B1 (en) * 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
KR20020094545A (ko) * 2001-06-12 2002-12-18 현대자동차주식회사 자동차의 차선 이탈 방지시스템 및 그 제어방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8676492B2 (en) 2006-01-19 2014-03-18 GM Global Technology Operations LLC Map-aided vision-based lane sensing
US8265872B2 (en) 2008-09-08 2012-09-11 Toyota Jidosha Kabushiki Kaisha Road surface division mark recognition apparatus, and lane departure prevention apparatus
US8392115B2 (en) 2008-09-08 2013-03-05 Toyota Jidosha Kabushiki Kaisha Road surface division mark recognition apparatus, and lane departure prevention apparatus
DE102009029243B4 (de) * 2008-09-08 2013-04-25 Toyota Jidosha Kabushiki Kaisha Fahrbahntrennungsmarkierung-Erkennungsvorrichtung und Fahrspurabweichung-Verhinderungsvorrichtung
DE102011005969B4 (de) 2010-03-23 2022-10-20 Denso Corporation In einem Fahrzeug montierte Vorrichtung zur Erfassung einer Linienmarkierung

Also Published As

Publication number Publication date
DE60202341D1 (de) 2005-01-27
JP4327389B2 (ja) 2009-09-09
US7295682B2 (en) 2007-11-13
EP1304607B1 (de) 2004-12-22
EP1304607A1 (de) 2003-04-23
JP2003123058A (ja) 2003-04-25
US20030072471A1 (en) 2003-04-17

Similar Documents

Publication Publication Date Title
DE60202341T2 (de) System zur Fahrspurerkennung
DE102005063199B4 (de) Vorrichtung und Verfahren zur Erkennung von Straßenmarkierungen
EP1680317B1 (de) Fahrerassistenzverfahren und -vorrichtung auf der basis von fahrspurinformationen
DE102009029243B4 (de) Fahrbahntrennungsmarkierung-Erkennungsvorrichtung und Fahrspurabweichung-Verhinderungsvorrichtung
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
EP1928687B1 (de) Verfahren und fahrerassistenzsystem zur sensorbasierten anfahrtsteuerung eines kraftfahrzeugs
DE69736764T2 (de) Lokales Positionierungsgerät und Verfahren dafür
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
DE10164346B4 (de) Straßenüberwachungsverfahren für ein Fahrzeug und System dafür
DE112017003974B4 (de) Geschwindigkeitsregelungsvorrichtung
DE112012003040T5 (de) Fahrspurerkennungsvorrichtung
DE102005001455A1 (de) Straßenoberflächenreflexionserfassungsvorrichtung
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE112018007484T5 (de) Hindernis-Detektionsvorrichtung, automatische Bremsvorrichtung unter Verwendung einer Hindernis-Detektionsvorrichtung, Hindernis-Detektionsverfahren und automatisches Bremsverfahren unter Verwendung eines Hindernis-Detektionsverfahrens
DE102016118497A1 (de) Ermittlung einer virtuellen Fahrspur für eine von einem Kraftfahrzeug befahrene Straße
DE10311240B4 (de) Verfahren und Einrichtung für die Spurführung eines Fahrzeugs
DE102017106952A1 (de) Abstandssteuerung für ein fahrzeug mit anhänger
EP3347737A1 (de) VERFAHREN ZUM ERMITTELN EINER PARKFLÄCHE EINES STRAßENABSCHNITTS
EP3279049B1 (de) Steuerungs-system und steuerungs-verfahren zum bestimmen einer fahrbahn
EP3193276A1 (de) Erfassungsvorrichtung und verfahren zum erkennen von fahrzeugachsen
DE102008021380B4 (de) Verfahren und Vorrichtung zum Vorhersagen eines Verlaufs einer Fahrbahn und Fahrerassistenzsystem
DE102004003502B3 (de) Verfahren und Vorrichtung zum Assistieren beim Führen eines Kraftfahrzeugs
DE102019112279A1 (de) Verfahren und vorrichtung zur diagonalen spurerkennung
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102019116892A1 (de) Fahrspurereignisantizipation durch LiDAR-Straßenbegrenzungserfassung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition