WO2012086965A2 - Reporting method, electronic device and recording medium performing same - Google Patents

Reporting method, electronic device and recording medium performing same Download PDF

Info

Publication number
WO2012086965A2
WO2012086965A2 PCT/KR2011/009729 KR2011009729W WO2012086965A2 WO 2012086965 A2 WO2012086965 A2 WO 2012086965A2 KR 2011009729 W KR2011009729 W KR 2011009729W WO 2012086965 A2 WO2012086965 A2 WO 2012086965A2
Authority
WO
WIPO (PCT)
Prior art keywords
information
image
report
identification information
wanted
Prior art date
Application number
PCT/KR2011/009729
Other languages
French (fr)
Korean (ko)
Other versions
WO2012086965A3 (en
Inventor
우승완
이해일
조창빈
김진영
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Publication of WO2012086965A2 publication Critical patent/WO2012086965A2/en
Publication of WO2012086965A3 publication Critical patent/WO2012086965A3/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/64Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for providing detail information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/61Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/65Arrangements for services using the result of monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 for using the result on users' side
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/70Systems specially adapted for using specific information, e.g. geographical or meteorological information using geographical information, e.g. maps, charts or atlases
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/76Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet
    • H04H60/81Arrangements characterised by transmission systems other than for broadcast, e.g. the Internet characterised by the transmission system itself
    • H04H60/90Wireless transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Definitions

  • the navigation 200 may acquire location information and guide a route.
  • the navigation 200 may display a map according to geographic information, receive radio waves from satellites, obtain location information, and display the current location on a map.
  • the navigation 200 may receive a destination and search for a route from a current location or a departure point to a destination to perform route guidance.
  • the second location information module 231 may acquire location information by performing communication.
  • the second location information module 231 may calculate a current location by receiving a radio wave signal from the satellite.
  • Each satellite may transmit L band frequencies having different frequency bands.
  • the second location information module 231 may calculate the current location based on the time taken for the L band frequency transmitted from the satellite to reach the navigation 200.
  • the broadcast transmission / reception module 235 may receive broadcast signals through various broadcast systems.
  • the broadcasting system that can be received through the broadcast transmitting / receiving module 235 includes digital multimedia broadcasting terrestrial (DMBT), digital multimedia broadcasting satellite (DMBS), media forward link only (MediaFLO), digital video broadcast handheld (DVBH), and ISDBT (integrated). services digital broadcast terrestrial) and other various broadcast systems that are obvious to those skilled in the art to which the present invention pertains.
  • the second storage unit 250 may store information necessary for the operation of the navigation 200 and information generated by the operation of the navigation 200.
  • the information necessary for the operation of the navigation 200 may include an operating system (OS), a route search application, a map, geographic information, and the like.
  • the information generated by the operation of the navigation 200 may include searched route information, a received image, and the like.
  • the reporting method according to the present invention may be performed using another apparatus that performs the same function as the black box 100 according to the present invention.
  • a first embodiment of the method according to the present invention receiving the arrangement information including the identification information of the arrangement target (S110), photographing the image (S120), from the captured image Extracting an identification image of the object included in the image (S130), obtaining the identification information of the object by analyzing the extracted identification image (S140), comparing the identification information of the object and the identification information of the arrangement of the object
  • the method may include at least one of determining whether S corresponds to a wanted item (S150) and transmitting report information when the object is a wanted item (S160).
  • the black box 100 may receive arrangement information through the first communication unit 160.
  • Arrangement information may include at least one of the information about the arrangement, arrangement time, information on the arrangement area and other various information related to the arrangement.
  • the information about the wanted person may be identification information of the wanted person for identifying the wanted person.
  • the identification information of the arrangement may include at least one of a vehicle number of the arrangement, type, size, color, and other appearance features of the arrangement.
  • the wanted information of the wanted person may include a person's name, age, sex, height, weight, body shape, facial shape, color of hair, hair, clothes supposed to be worn, and tone of speech. , Eye color, scar, and behavioral information.
  • the black box 100 may capture an image (S120).
  • the first controller 190 temporarily stores the image photographed by the camera 120 in the storage unit 180, and semi-permanently stores the wanted image in the temporarily stored image when the wanted image is included in the temporarily stored image. If it is not included, it can be deleted.
  • the black box 100 may extract an identification image of an object included in the image from the captured image (S130).
  • the preprocessing process may include at least one of angle correction, color tone correction, contrast correction, shadow correction, and noise removal of the image. Since the sharpness of the image that has been preprocessed may be improved, the first controller 190 may recognize the image more easily by using the preprocessed image.
  • the color tone correction may include at least one of graying of the image, black and white binarization, and highlighting of a specific color.
  • Shading correction may be adjusting the thickness of the boundary line in the image, and noise reduction may remove unnecessary blemishes in the image. It may include removing.
  • the first control unit 190 may extract an identification image from the original image or the preprocessed image.
  • the identification image may mean an image of a part that can identify the object as at least a part of the photographed object.
  • the identification image may be a license plate image of a vehicle when arranging a vehicle, or may be an image of at least a part of the appearance of a person such as a face image of a man when arranging a man.
  • FIGS. 7 and 8. 8 is a view of a license plate image extracted from an image in the first embodiment of the reporting method according to the present invention.
  • the license plate of a vehicle is generally manufactured to have a certain shape according to a standard set in each country. In many cases, these license plates can have the following characteristics:
  • the first controller 190 may extract a region consisting of a specific color into the license plate using RGB (red-green-blue) or HIS color information of the image. have.
  • the first controller 190 may extract the license plate image from the captured image using at least one of the above-described method and other license plate image extraction methods that are obvious to those skilled in the art. have.
  • FIG. 9 is a view of an image including a person photographed through a camera 120 in the first embodiment of the reporting method according to the present invention
  • FIG. 10 is a view of the first embodiment of the reporting method according to the present invention.
  • the first controller 190 may acquire an image including a person through the camera 120.
  • the image including the person may include at least a part of an image of the appearance of the person.
  • the first controller 190 may extract the face image as shown in FIG. 10 as the identification image from the image.
  • the face consists entirely of the color of the person's skin and the color of the person and hair, and in part the color of the pupil. It consists of white on the eyes and the color of the lips.
  • the first controller 190 may extract, as a face image, an area in which the above-mentioned colors are concentrated in a certain area of the image by using the color information.
  • the first controller 190 may extract the inside of the boundary line having such a shape as a face image by detecting the boundary line.
  • the first controller 190 is a person having ordinary skill in the art, the method for detecting the face using the Eigen function, the method for detecting the face using the neural network, and other aspects of the present invention.
  • the facial image may be extracted from the captured image using at least one of other facial image extraction methods that are obvious to the user.
  • the step of extracting the identification image from the above-described image is not necessarily performed by the black box 100.
  • at least a part of the step of extracting the identification image from the image may be performed by the navigation 200.
  • the black box 100 may transmit the captured image to the navigation 200 and extract the identification image from the image received by the navigation 200.
  • the black box 100 may obtain identification information of the object by analyzing the extracted identification image (S140).
  • the first controller 190 may obtain identification information of the object by analyzing the extracted identification image as described above.
  • the identification information of the object may mean information for identifying the object.
  • the identification information of the object may include information of contents corresponding to the identification information of the arrangement.
  • the identification information of the object may include at least one of vehicle number, type, size, color, and other information about an appearance feature of the vehicle.
  • the person's name, age, sex, height, weight, body shape, facial shape, color of hair, hair shape, clothing assumed to be worn, tone, eye color, scar and It may include at least one of the information on the behavioral characteristics.
  • the identification information of the object may be a vehicle number
  • the identification information of the object may be facial information
  • FIG. 11 is a diagram related to the analysis of the license plate image in the first embodiment of the reporting method according to the present invention.
  • the first controller 190 may extract the license plate image shown in FIG. 8 when the vehicle is included in the captured image.
  • the first control unit 190 may obtain the vehicle number from the license plate image.
  • the first control unit 190 may first separate a single character area, that is, a plurality of single sentence areas, as shown in FIG. 11 from the license plate image.
  • the first controller 190 may extract the single character region in a similar manner to that of extracting the license plate image from the captured image.
  • the first controller 190 may analyze the single character area through a character recognition technique to recognize the single character and obtain a vehicle number based on the recognized single characters.
  • the character recognition technique may include at least one of a circular matching method, a syntactic method, a method using a neural network algorithm, and various other character recognition methods.
  • the circular matching method is a method for recognizing a character by matching the character with a standard character pattern
  • the syntactic method is a method for recognizing a character in consideration of the structural information of the character, that is, the size and the slope.
  • FIGS. 10 and 12. 12 is a view of the analysis of the facial image in the first embodiment of the reporting method according to the present invention.
  • the first controller 190 analyzes at least one of features related to each of the components of the face such as eyes, nose, mouth and ears and features related to them from the face image to obtain face information including these features. can do.
  • each of the components of the face may include at least one of the position, length, angle, size, and shape of the components of each face, the relationship between the components may include a positional relationship between each component .
  • the first control unit 190 analyzes the facial image, and as shown in FIG. 12, the distance between the eyes F1, the angle of the eyebrows F2, the size of the nose F3, and the size of the mouth F4. Facial information).
  • the first controller 190 is a structural method for finding a geometric feature of the facial image, a method using a mathematical transformation filter such as polar coordinate transformation or wavelet transformation, principal component analysis, local feature analysts, linear Facial information can be obtained by analyzing using statistical models such as linear discriminant analysis, KL transformation, neural network model, and Bayesian probabilistic model of 3D information.
  • a mathematical transformation filter such as polar coordinate transformation or wavelet transformation, principal component analysis, local feature analysts
  • linear Facial information can be obtained by analyzing using statistical models such as linear discriminant analysis, KL transformation, neural network model, and Bayesian probabilistic model of 3D information.
  • the first control unit 190 obtains and analyzes the appearance image of the person as an identification image in addition to the facial information described above with respect to the person, and analyzes various appearance information including the gender, body information, clothes information, hair shape information, etc. of the person. Will be able to obtain.
  • the step of obtaining the identification information of the object by analyzing the identification image does not necessarily have to be performed by the black box 100. In other words, at least a part of obtaining the identification information of the object by analyzing the identification image may be performed by the navigation 200.
  • the black box 100 may compare the identification information of the object and the identification information of the wanted item and determine whether the object corresponds to the wanted item (S150). Determining whether the object is wanted for arrangement may not necessarily be performed by the black box 100, and at least some of the steps may be performed by the navigation 200.
  • the first controller 190 may determine whether the object corresponds to the wanted item by comparing the obtained identification information of the object and the received wanted information.
  • the first controller 190 may determine that the object corresponds to the arrangement arrangement.
  • the first controller 190 may compare the identification information of the object with the identification information of the wanted item and determine the object as a wanted item when there is a similarity more than a predetermined level.
  • the first controller 190 has at least one vehicle number of the photographed vehicle.
  • the vehicle numbers of the wanted vehicle is matched, it can be determined that the object corresponds to the wanted arrangement.
  • the first controller 190 may determine the vehicle as the wanted vehicle when a certain number of characters match, that is, substantially match, even if the vehicle number does not match the wanted vehicle number. . That is, when only one or two letters of all the letters are different and all other letters match, the vehicle may be determined as a wanted vehicle.
  • the vehicle may be determined as a wanted vehicle.
  • the numbers '5' and '8' may frequently cause a recognition error during the character recognition process, when the vehicle number is '1235' and the wanted vehicle number is '1238', the vehicle may be determined as a wanted vehicle.
  • the controller 190 may compare the face information of the photographed object with the face information of the wanted person, and determine whether the person photographed is a wanted person when it is substantially the same or similar. For example, when facial information includes information on the angle of the eyebrows, it may be determined that the difference of about 1 degree is substantially the same.
  • the black box 100 may transmit the report information when the object is a wanted item (S160).
  • the first controller 190 may transmit the report information when it is determined through the first communication unit 160 that the object corresponds to the arrangement.
  • the first communication unit 160 may transmit the report information to an external device including at least one of the navigation 200 and the server 300.
  • the navigation 200 may transmit the reporting information to the server 300.
  • the report information may include identification information of the photographed object, information about a wanted item, photographed image, extracted identification image, report time, report location, reporter, and other information related to the report.
  • the reporting information about the person may include a wanted person's name, facial image, facial information, location of discovery, time of discovery, direction of movement, and the like.
  • the navigation 200 may acquire the found position according to the position information of the time when the image was captured.
  • the navigation 200 may provide such location information to the black box 100 and the black box 100 may obtain the report information according to the location information.
  • the navigation 200 may receive part of the report information from the black box 100, add location information to the received report information, and transmit the location information to an external device, for example, the server 300.
  • the black box 100 may receive a signal instructing transmission of the report information from the user, and may selectively transmit the report information when the signal is obtained.
  • Performing a report after the black box 100 receives an input indicating a transmission from a user before transmitting the report information may have various advantages.
  • the black box 100 finds an arrangement through photographing an image through the camera 120, the user may not want to report. Thus, it may be necessary to obtain the user's permission before the report to perform the report only if the user wants the report.
  • performing an inaccurate report by the black box 100 may lead to an investigation by a related agency. It can cause confusion and cause the server to be reported to perform unnecessary operations. Therefore, when the user first determines that the object included in the image captured by the black box 100 corresponds to a wanted object, the user may secondarily re-determine and determine whether to perform the report. .
  • the first controller 190 may control the first output unit 150 to output information for secondly determining whether the object needs a wanted item.
  • the information for determining whether the object is wanted for arrangement may include at least one of a photographed image, an identification image of the object, and identification information of the object, and identification information of the arrangement target.
  • the first output unit 150 may output the license plate image extracted from the photographed image and the vehicle number of the arrangement.
  • the user may be provided with the vehicle number of the object according to the license plate image and the vehicle number of the wanted vehicle and may determine whether the object included in the captured image is a wanted object.
  • the first input unit 140 may receive a signal for instructing transmission of the report information from the user. As described above, when the first output unit 150 provides the user with information for determining whether the object is to be arranged, the user determines whether the photographed object is a wanted item, and determined to be wanted. At this time, a signal indicating a report may be input through the first input unit 140 of the black box 100.
  • the first controller 190 When the first controller 190 acquires a signal indicating transmission of the report information through the first input unit 140, the first controller 190 may transmit the report information through the first communication unit 160 as described above.
  • an object included in the captured image may be analyzed to find a wanted item and report it.
  • at least one of the black box 100 and the navigation 200 finds an arranging target and notifies the relevant agency to reduce the time and manpower required to find the arranging target.
  • the server 300 determines whether at least one of the black box 100 and the navigation 200 is an arrangement of the wanted object by using the arrangement information instead of the server 300. There is an effect that can not handle excessive work.
  • the first embodiment it is possible to easily find the wanted object by providing various information such as the time or location where the wanted object was found.
  • FIG. 13 is a flowchart of a second embodiment of a reporting method according to the present invention
  • FIG. 14 is a diagram of transmission of arrangement information according to an arrangement area in a second embodiment of the reporting method according to the present invention.
  • a second embodiment of the reporting method according to the present invention transmitting arrangement information including identification information of a reporting target (S210) and receiving reporting information including identification information of a reporting target ( S220), comparing the report information and arrangement information to determine whether the reported object corresponds to the arrangement of the wanted (S230), providing information when the reported object corresponds to the arrangement of the arrangement (S240) and reporting At least one of selecting a whistleblower according to the whistleblowing information as an award target when the object corresponds to a wanted item (S250).
  • arrangement information including identification information of a reporting target (S210) and receiving reporting information including identification information of a reporting target ( S220)
  • comparing the report information and arrangement information to determine whether the reported object corresponds to the arrangement of the wanted S230
  • providing information when the reported object corresponds to the arrangement of the arrangement S240
  • reporting At least one of selecting a whistleblower according to the whistleblowing information as an award target when the object corresponds to a wanted item (S250).
  • the server 300 may transmit the arrangement information including the identification information of the arrangement target (S210).
  • the server 300 may transmit the arrangement information to the external device.
  • Such arrangement information may include identification information of the arrangement.
  • the external device may include at least one of the black box 100 and the navigation 200.
  • the server 300 does not necessarily need to transmit arrangement information directly to the black box 100 and the navigation 200, but may also transmit arrangement information by relaying other external devices.
  • the server 300 may transmit the arrangement information according to a predetermined condition.
  • the server 300 transmits wanted information including information about a wanted area, and at least one of the black box 100 and the navigation 200 which has received the wanted information activates a part of the wanted information according to a current position, and partially Can be deactivated.
  • the black box 100 receives and stores arrangement information for the Seoul Gyeonggi area D1 and Busan Gyeongnam area D2, and when located in the Seoul Gyeonggi area, Wanted information can be activated.
  • the black box 100 may deactivate the arrangement information for the Seoul Gyeonggi area and activate the arrangement information for the Busan Gyeongnam area.
  • the report information may include at least one of identification information of an object, at least a part of the captured image, and an identification image.
  • the report information may include information on the report time.
  • the server 300 may select a reward target by further considering information on the reporting time. For example, the server 300 may receive a plurality of report information. In this case, the reporter based on the report information included in the report information may be selected as a reward.
  • the server 300 may provide various benefits to the selected awards. For example, a server 300 managed by a government agency or a related agency may grant tax benefits or pay a bounty or bounty to a prize. For another example, if the server 300 managed by a private company may provide electronic money or coupons for the prize.
  • the server 300 may store information about a reward or a price in association with information about the informant selected as a reward.
  • the server 300 may select the informant as a reward and transmit a message indicating that the informant has been selected as a reward.
  • a message may be transmitted to the device that reported the information, such as the black box 100, the navigation 200, or other mobile communication terminal, a telephone, or an e-mail of a user.
  • the address for transmitting may be included in the report information.
  • the transmitted message may include information reflecting the content of the reward.
  • the whistleblower will be informed about the rewards that the whistleblowing information will be received, selected as the reward recipient, and thus will be provided.
  • the arrangement information is transmitted to an external device located in the region where the arrangement is expected, that is, the arrangement area, it is possible to search more accurately.
  • the related agency may find an arrangement according to the information.
  • by rewarding the whistleblower there is an effect that can attract attention about the whistleblower.
  • the reporting method according to each embodiment of the present invention described above can be used individually or in combination with each other.
  • the steps configuring each embodiment may be used separately or in combination with the steps configuring another embodiment.

Abstract

The present invention relates to a reporting method which photographs an image, acquires identification information of an object included in the image, and performs a report based on identification information of the object included in the photographed image and identification information of a wanted person, and an electronic device and recording media performing the same.

Description

제보방법, 이를 수행하는 전자기기 및 기록매체Reporting method, electronic device and recording medium performing the same
본 발명은 영상을 촬상하여 그 영상에 포함된 객체의 식별정보를 획득하고, 수배대상의 식별정보를 수신하여, 그 객체의 식별정보 및 수배대상의 식별정보를 토대로 제보를 수행하는 제보방법, 이를 수행하는 전자기기 및 기록매체에 관한 것이다.The present invention captures an image, obtains identification information of an object included in the image, receives an identification information of an arrangement, and reports a method based on the identification information of the object and the identification information of the arrangement, this report It relates to an electronic device and a recording medium to perform.
자동차가 일반에 널리 보급됨에 따라 이러한 차량의 이용을 보조하기 위한 장비가 활발히 연구되고 있는데, 대표적으로 차량의 운행을 돕기 위한 내비게이션과 차량의 사건사고를 대비하기 위한 블랙박스를 들 수 있다.As automobiles are widely used in the general public, equipment to assist in the use of such vehicles is being actively researched, such as navigation for helping the operation of the vehicle and a black box for preparing for an accident of the vehicle.
내비게이션은 최근 활성화되고 있는 위치기반서비스(LSB: location based service)를 이용하여 차량의 현재위치를 측위하거나 목적지까지의 이동경로를 안내해주는 경로안내서비스를 제공할 수 있고, 블랙박스는 주행영상을 비롯하여 차량에 관련하여 발생한 사고의 책임소재를 판단하기 위한 다양한 자료를 수집할 수 있다.The navigation can provide a route guidance service for positioning the current location of the vehicle or guiding a route to the destination by using a recently activated location based service (LSB). Various data can be collected to determine the responsibility for accidents related to vehicles.
최근 이러한 블랙박스를 이용하여 획득한 주행영상을 이용하여 수배차량이나 범죄자, 미아 등의 수배대상을 발견하고, 더 나아가 이와 관련된 정보를 경찰 등의 유관기관에 신속하고 정확하게 제공하기 위하여 많은 연구가 진행되고 있다.Recently, many researches have been conducted to find out wanted items of wanted vehicles, criminals, and lost children by using driving images acquired by using such a black box, and to provide related information to police and related organizations quickly and accurately. It is becoming.
본 발명의 일 과제는, 촬상한 영상을 이용하여 수배대상을 찾아 이를 제보하는 제보방법, 이를 수행하는 전자기기 및 기록매체를 제공하는 것이다.An object of the present invention is to provide a reporting method for finding and reporting an arrangement by using the captured image, an electronic device and a recording medium for performing the same.
본 발명의 다른 과제는, 통신망을 통해 수배대상의 식별정보를 수신하여, 촬상한 영상에 포함된 객체가 수배대상의 식별정보에 따른 수배대상에 해당하는지 여부를 스스로 판단하는 제보방법, 이를 수행하는 전자기기 및 기록매체를 제공하는 것이다.Another object of the present invention, by receiving the identification information of the wanted person through the communication network, the reporting method for determining whether the object included in the image captured by the wanted information according to the wanted information according to the wanted person, performing the same To provide an electronic device and a recording medium.
본 발명의 또 다른 과제는, 수배대상에 관하여 제보하는 때 수배대상이 발견된 시각이나 위치와 같이 수배대상의 수색을 위한 다양한 정보를 함께 제공하는 제보방법, 이를 수행하는 전자기기 및 기록매체를 제공하는 것이다.Still another object of the present invention is to provide a reporting method for providing a variety of information for searching for an arrangement, such as the time or location in which the arrangement is found, and an electronic device and a recording medium for performing the arrangement. It is.
본 발명의 또 다른 과제는, 수배대상의 발견을 위해 수배대상이 있을 것으로 예상되는 지역에 따라 그 지역에 대응되는 수배대상의 식별정보를 이용하는 제보방법, 이를 수행하는 전자기기 및 기록매체를 제공하는 것이다. Another object of the present invention is to provide an information reporting method using the identification information of the wanted arrangement corresponding to the region according to the region where the wanted arrangement is to be found for the arrangement, an electronic device and a recording medium for performing the same will be.
본 발명의 또 다른 과제는, 제보자에게 다양한 보상을 하여 제보를 유도하는 제보방법, 이를 수행하는 전자기기 및 기록매체를 제공하는 것이다.Still another object of the present invention is to provide a report method for inducing a report by making various rewards to the reporter, an electronic device and a recording medium performing the same.
본 발명이 해결하려는 과제는 상술한 과제들로 제한되지 아니하며, 언급되지 아니한 또 다른 과제들은 후술할 내용으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problem, another task that is not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 양상에 따른 전자기기는, 통신부, 카메라 및 카메라를 통해 촬영된 영상에 포함된 객체의 식별정보를 획득하고, 통신부를 통해 수배대상의 식별정보를 수신하여, 객체의 식별정보 및 수배대상의 식별정보를 토대로 통신부를 통해 제보정보를 송신하는 제어부를 포함한다.According to an aspect of the present invention, an electronic device obtains identification information of an object included in an image photographed through a communication unit, a camera, and a camera, receives identification information of an arrangement of arrangement through the communication unit, and identifies and arranges an object. It includes a control unit for transmitting the report information through the communication unit based on the identification information of the target.
본 발명의 다른 양상에 따른 전자기기는, 수배대상의 식별정보를 저장하는 저장부, 통신부 및 통신부를 통해 외부기기로부터 제보대상의 식별정보를 포함하는 제보정보를 수신하고, 제보대상의 식별정보 및 수배대상의 식별정보가 실질적으로 일치하는 경우, 통신부를 통해 제보정보를 유관기관에 제공하는 제어부를 포함한다.According to another aspect of the present invention, an electronic device may receive report information including identification information of a report object from an external device through a storage unit, a communication unit, and a communication unit that stores identification information of a wanted object, If the identification information of the arrangement target is substantially matched, and includes a control unit for providing the reporting information to the relevant organization through the communication unit.
본 발명의 일 양상에 따른 제보방법은, 수배대상의 식별정보를 수신하는 단계, 영상을 획득하는 단계, 영상에 포함된 객체의 식별정보를 획득하는 단계 및 객체의 식별정보 및 수배대상의 식별정보가 실질적으로 일치하는 경우, 제보정보를 송신하는 단계를 포함한다.According to an aspect of the present invention, there is provided a reporting method comprising: receiving identification information of an arrangement, acquiring an image, obtaining identification information of an object included in an image, and identification information of the object and identification information of an arrangement; If is substantially matched, transmitting the report information.
본 발명의 다른 양상에 따른 제보방법은, 외부기기로 수배대상의 식별정보를 송신하는 단계, 외부기기로부터 제보대상의 식별정보를 포함하는 제보정보를 수신하는 단계 및 제보대상의 식별정보 및 수배대상의 식별정보가 실질적으로 일치하는 경우, 제보정보를 유관기관에 제공하거나 제보정보를 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a report method comprising: transmitting identification information of a wanted item to an external device, receiving report information including identification information of a reported object from an external device, and identifying information and wanted item of the reported object; If the identification information of the substantially match, providing the report information to the relevant authorities or outputting the report information.
본 발명의 일 양상에 따른 컴퓨터 판독 가능 기록 매체에는, 수배대상의 식별정보를 수신하는 단계, 영상을 획득하는 단계, 영상에 포함된 객체의 식별정보를 획득하는 단계 및 객체의 식별정보 및 수배대상의 식별정보가 실질적으로 일치하는 경우, 제보정보를 송신하는 단계를 수행하는 프로그램이 기록된다.According to an aspect of the present invention, a computer-readable recording medium includes: receiving identification information of an arrangement, obtaining an image, obtaining identification information of an object included in the image, and identification information and arrangement of an object If the identification information of is substantially identical, a program for performing the step of transmitting the report information is recorded.
본 발명의 다른 양상에 따른 컴퓨터 판독 가능 기록 매체에는, 외부기기로 수배대상의 식별정보를 송신하는 단계, 외부기기로부터 제보대상의 식별정보를 포함하는 제보정보를 수신하는 단계 및 제보대상의 식별정보 및 수배대상의 식별정보가 실질적으로 일치하는 경우, 제보정보를 유관기관에 제공하거나 제보정보를 출력하는 단계를 수행하는 프로그램이 기록된다.In a computer-readable recording medium according to another aspect of the present invention, transmitting identification information of a wanted item to an external device, receiving report information including identification information of the report object from an external device, and identifying information of the report object. And a program for performing the step of providing the reporting information to the related organization or outputting the reporting information, when the identification information of the arrangement target is substantially matched.
도 1은 본 발명에 따른 제보시스템의 일 실시예에 관한 도면이다.1 is a view of an embodiment of a reporting system according to the present invention.
도 2는 본 발명에 따른 블랙박스 및 내비게이션의 일 실시예에 관한 사시도이다.2 is a perspective view of an embodiment of a black box and a navigation according to the present invention.
도 3은 본 발명에 따른 블랙박스의 일 실시예에 관한 구성도이다.3 is a block diagram of an embodiment of a black box according to the present invention.
도 4는 본 발명에 따른 내비게이션의 일 실시예에 관한 구성도이다. 4 is a block diagram of an embodiment of a navigation according to the present invention.
도 5는 본 발명에 따른 내비게이션이 작동하는 내비게이션시스템의 일 실시예에 관한 도면이다.5 is a view of an embodiment of a navigation system in which the navigation according to the invention operates.
도 6은 본 발명에 따른 제보방법의 제1실시예의 순서도이다.6 is a flowchart of a first embodiment of a reporting method according to the present invention.
도 7은 본 발명에 따른 제보방법의 제1실시예에 있어서 카메라를 통해 촬상된 차량을 포함하는 영상에 관한 도면이다.7 is a view of an image including a vehicle picked up by a camera in a first embodiment of the reporting method according to the present invention.
도 8은 본 발명에 따른 제보방법의 제1실시예에 있어서 영상으로부터 추출된 번호판이미지에 관한 도면이다.8 is a view of a license plate image extracted from an image in the first embodiment of the reporting method according to the present invention.
도 9는 본 발명에 따른 제보방법의 제1실시예에 있어서 카메라를 통해 촬상된 사람을 포함하는 영상에 관한 도면이다.9 is a view of an image including a person photographed through a camera in a first embodiment of the reporting method according to the present invention.
도 10은 본 발명에 따른 제보방법의 제1실시예에 있어서 영상으로부터 추출된 안면이미지에 관한 도면이다.10 is a diagram of a facial image extracted from an image in the first embodiment of the reporting method according to the present invention.
도 11은 본 발명에 따른 제보방법의 제1실시예에 있어서 번호판이미지의 분석에 관한 도면이다.FIG. 11 is a diagram related to the analysis of the license plate image in the first embodiment of the reporting method according to the present invention. FIG.
도 12는 본 발명에 따른 제보방법의 제1실시예에 있어서 안면이미지의 분석에 관한 도면이다.12 is a view of the analysis of the facial image in the first embodiment of the reporting method according to the present invention.
도 13은 본 발명에 따른 제보방법의 제2실시예의 순서도이다.13 is a flowchart of a second embodiment of a reporting method according to the present invention.
도 14는 본 발명에 따른 제보방법의 제2실시예에 있어서 수배지역에 따른 수배정보의 송신에 관한 도면이다.14 is a diagram of transmission of arrangement information according to arrangement area in the second embodiment of the reporting method according to the present invention.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>
100: 블랙박스100: black box
110: 부착부 120: 카메라 130: 마이크110: attachment portion 120: camera 130: microphone
140: 제1입력부 150: 제1출력부 160: 제1통신부140: first input unit 150: first output unit 160: first communication unit
161: 제1위치정보모듈 162: 제1무선인터넷모듈 161: first location information module 162: first wireless internet module
163: 제1유선통신모듈 164: 제1근거리통신모듈163: first wired communication module 164: first short-range communication module
170: 제1감지부 180: 제1저장부 190: 제1제어부170: first detection unit 180: first storage unit 190: first control unit
200: 내비게이션200: navigation
210: 제2입력부 220: 제2출력부 230: 제2통신부210: second input unit 220: second output unit 230: second communication unit
231: 제1위치정보모듈 232: 제1무선인터넷모듈 233: 제1유선통신모듈 231: first location information module 232: first wireless internet module 233: first wired communication module
234: 제1근거리통신모듈 235: 방송송수신모듈234: first short-range communication module 235: broadcast transmission and reception module
240: 제2감지부 241: 운동감지모듈 242: 광센싱모듈240: second detection unit 241: motion detection module 242: light sensing module
250: 제2저장부 260: 제2제어부250: second storage unit 260: second control unit
300: 서버300: server
본 명세서에서 사용되는 용어는 본 발명을 용이하게 설명하기 위하여 사용되는 것이다. 따라서, 본 발명은 본 명세서에서 사용되는 용어에 의해 한정되지 아니한다.The terms used in the present specification are used to easily explain the present invention. Accordingly, the invention is not limited by the terms used herein.
본 발명은 본 발명의 사상 및 범위를 벗어나지 아니하고 수정 또는 변형될 수 있다. 이때, 본 발명의 사상 및 범위를 벗어나지 아니하는 수정 또는 변형은, 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 본 발명은 본 발명의 사상 및 범위를 벗어나지 아니하는 수정예 또는 변형예를 포함한다. 또한 본 발명은 후술할 실시예에 의해 한정되지 아니한다.The present invention can be modified or modified without departing from the spirit and scope of the invention. At this time, modifications or variations that do not depart from the spirit and scope of the present invention will be apparent to those skilled in the art. Accordingly, the present invention includes modifications or variations without departing from the spirit and scope of the invention. In addition, this invention is not limited by the Example mentioned later.
이하에서는 본 발명에 대하여 첨부된 도면을 참조하여 설명한다. 여기서, 동일한 구성요소에 대해서는 도면상 동일한 도면부호가 사용되고, 중복된 설명은 생략될 수 있다. Hereinafter, with reference to the accompanying drawings, the present invention will be described. Here, the same reference numerals are used for the same components in the drawings, and duplicate descriptions may be omitted.
이하에서는 본 발명에 따른 제보시스템에 관하여 도 1 및 도 2를 참조하여 설명한다. 도 1은 본 발명에 따른 제보시스템의 일 실시예에 관한 도면이고, 도 2는 본 발명에 따른 블랙박스(100) 및 내비게이션(200)의 일 실시예에 관한 사시도이다.Hereinafter, the reporting system according to the present invention will be described with reference to FIGS. 1 and 2. 1 is a view of an embodiment of a reporting system according to the present invention, Figure 2 is a perspective view of an embodiment of a black box 100 and the navigation 200 according to the present invention.
제보시스템은 수배대상을 찾아 수배대상에 관련된 제보정보를 제공하는 시스템으로, 유관기관 등이 제공하는 수배정보를 관리하고, 수배정보에 따른 수배대상을 찾고, 발견된 수배대상에 관련된 각종 제보정보를 수집하여 이를 유관기관 등으로 제공하여 수배대상을 찾는 것을 돕는 시스템을 의미할 수 있다.The reporting system is a system for finding wanted information and providing information related to the wanted information.It manages the wanted information provided by related organizations, finds wanted items based on the wanted information, and finds various information related to the found wanted information. It may mean a system that collects and provides it to related organizations to help find the wanted persons.
이러한 제보시스템은, 도 1에 도시된 바와 같이, 블랙박스(100), 내비게이션(200) 및 서버(300)를 포함할 수 있다. 여기서 블랙박스(100)와 내비게이션(200)은 차량에 설치되는 차량용 블랙박스(100) 및 차량용 내비게이션(200)일 수 있다. 또한 도 2에 도시된 바와 같이 블랙박스(100)와 내비게이션(200)은 각각 별개의 장치로 구현되는 것은 물론 물리적으로 하나의 장치로 구현되는 것도 가능하다.Such a reporting system may include a black box 100, a navigation 200, and a server 300, as shown in FIG. 1. The black box 100 and the navigation 200 may be a vehicle black box 100 and a vehicle navigation 200 installed in the vehicle. In addition, as shown in FIG. 2, the black box 100 and the navigation 200 may be embodied as separate devices as well as physically as one device.
여기서 서버(300)는 수배정보를 관리하고, 제보정보를 접수할 수 있다. Here, the server 300 may manage arrangement information and receive report information.
예를 들어, 서버(300)는 유관기관 등이 제공하는 수배정보를 수집하고, 수배정보를 블랙박스(100) 및 내비게이션(200) 중 적어도 하나로 송신하고, 블랙박스(100) 및 내비게이션(200) 중 적어도 하나로부터 제보정보를 수신하여 접수하고, 접수된 제보정보를 유관기관 등에 제공할 수 있다. For example, the server 300 collects arrangement information provided by a related organization, transmits arrangement information to at least one of the black box 100 and the navigation 200, and the black box 100 and the navigation 200. The report information may be received and received from at least one of the provided information, and the received report information may be provided to a related organization.
여기서 수배정보는 수배대상의 식별정보, 수배시간, 수배지역 및 그 외의 수배와 관련된 다양한 정보 중 적어도 하나를 포함할 수 있다.Here, the arrangement information may include at least one of identification information of an arrangement, arrangement time, arrangement area, and various other information related to arrangement.
또 여기서 제보정보는 제보된 객체의 식별정보, 제보시간, 제보위치, 제보자 및 그 외의 제보와 관련된 다양한 정보 중 적어도 하나를 포함할 수 있다. The report information may include at least one of identification information of the reported object, report time, report location, reporter, and various other information related to the report.
이하에서는 블랙박스(100)에 관하여 도 3을 참조하여 설명한다. 도 3은 본 발명에 따른 블랙박스(100)의 일 실시예에 관한 구성도이다.Hereinafter, the black box 100 will be described with reference to FIG. 3. 3 is a block diagram of an embodiment of a black box 100 according to the present invention.
블랙박스(100)는 사고에 관련된 정보를 획득하고 저장할 수 있다. 예를 들어, 블랙박스(100)는 차량의 운행 중에 주행영상을 획득하여 저장할 수 있다. 이에 따라 사고가 발생한 때 블랙박스(100)로부터 주행영상 중 포함된 사고영상을 분석하여 사고의 경위 및 과실의 정도를 판단할 수 있을 것이다. The black box 100 may obtain and store information related to the accident. For example, the black box 100 may obtain and store a driving image while the vehicle is driving. Accordingly, when the accident occurs, the accident image included in the driving image from the black box 100 may be analyzed to determine the accident history and the degree of error.
또한 블랙박스(100)는 내비게이션(200) 및 기타 외부기기 중 적어도 하나를 활용할 수 있다. 예를 들어, 블랙박스(100)는 내비게이션(200)으로부터 지리정보 또는 지도정보를 획득하고 이를 획득한 영상에 대응시킬 수 있다. 이로써, 보다 효율적인 영상분석이 가능하므로 영상을 활용한 사고의 분석에 이점이 있을 수 있을 것이다.In addition, the black box 100 may utilize at least one of the navigation 200 and other external devices. For example, the black box 100 may obtain geographic information or map information from the navigation 200 and correspond to the obtained image. As a result, more efficient image analysis may be possible, and thus there may be an advantage in analyzing images by using an image.
블랙박스(100)는 주행 및 정차 중 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상의 촬상하는 것은 물론, 차량이 정차하여 있는 때에도 영상을 촬상할 수 있다. The black box 100 may acquire data of the vehicle while driving and stopping. That is, not only the image of the image while the vehicle is running, but also the image can be captured even when the vehicle is stopped.
블랙박스(100)는 촬상한 영상을 일정한 화질로 저장하거나 또는 다양한 조건에 따라 적절한 화질로 저장할 수 있다. 예를 들면, 블랙박스(100)는 일반적인 주행 중에는 영상을 낮은 화질로 저장하지만 사고가 발생한 시점 또는 그 전후의 시간 동안의 영상은 고화질로 저장할 수 있을 것이다. 이로써, 블랙박스(100)는 저장공간을 낭비하지 아니하고도 사고의 분석에 필요한 핵심적인 정보를 저장할 수 있다.The black box 100 may store the captured image in a constant image quality or in an appropriate image quality according to various conditions. For example, the black box 100 may store an image in a low image quality while driving in general, but may store an image in a high image quality at a time before or after an accident occurs. As a result, the black box 100 may store essential information necessary for analysis of an accident without wasting storage space.
이러한 블랙박스(100)는 도 2 및 도 3에 도시된 바와 같이, 블랙박스(100)가 차량에 설치되도록 하는 부착부(110), 영상을 촬상하는 카메라(120), 소리를 획득하는 마이크(130), 사용자로부터 입력을 받는 제1입력부(140), 사용자에게 정보를 제공하는 제1출력부(150), 외부기기와 통신을 수행하는 제1통신부(160), 블랙박스(100)의 상태를 감지하는 제1감지부(170), 정보를 저장하는 제1저장부(180) 및 블랙박스(100)의 전반적인 동작을 제어하는 제1제어부(190) 중 적어도 하나를 포함할 수 있다. As shown in FIGS. 2 and 3, the black box 100 includes an attachment part 110 to allow the black box 100 to be installed in a vehicle, a camera 120 to capture an image, and a microphone to acquire sound. 130, the state of the first input unit 140 for receiving input from the user, the first output unit 150 for providing information to the user, the first communication unit 160 for communicating with an external device, the black box 100 It may include at least one of the first detection unit 170 for detecting the first, the first storage unit 180 for storing information and the first control unit 190 for controlling the overall operation of the black box 100.
본 발명에 따른 블랙박스(100)에 있어서, 상술한 구성요소는 필수적인 구성요소는 아니며, 따라서 블랙박스(100)는 상술한 구성요소를 선택적으로 포함할 수 있다. In the black box 100 according to the present invention, the above-described components are not essential components, and thus, the black box 100 may optionally include the above-described components.
이하에서는 블랙박스(100)의 각 구성요소에 관하여 다시 도3을 참조하여 부착부(110), 카메라(120), 마이크(130), 제1입력부(140), 제1출력부(150), 제1통신부(160), 제1감지부(170), 제1저장부(180) 및 제1제어부(190)의 순서로 설명한다.Hereinafter, with reference to FIG. 3 again with respect to each component of the black box 100, the attachment unit 110, the camera 120, the microphone 130, the first input unit 140, the first output unit 150, The first communication unit 160, the first sensing unit 170, the first storage unit 180, and the first control unit 190 will be described in this order.
부착부(110)는 블랙박스(100)가 차량에 설치되도록 할 수 있다. 부착부(110)는 블랙박스(100)가 차량의 전면유리에 부착되도록 하는 흡착판 또는 차량의 룸미러(room mirror)나 지붕 등에 결합할 수 있는 고정장치를 포함할 수 있다.The attachment part 110 may allow the black box 100 to be installed in the vehicle. The attachment part 110 may include a suction plate which allows the black box 100 to be attached to the windshield of the vehicle, or a fixing device that may be coupled to a room mirror or roof of the vehicle.
카메라(120)는 차량의 외부 또는 내부를 촬영할 수 있다. 카메라(120)는 광학적으로 영상을 촬영할 수 있으며 이러한 영상은 정지영상 및 동영상 중 적어도 하나를 포함할 수 있다.The camera 120 may photograph the outside or the inside of the vehicle. The camera 120 may optically capture an image, and the image may include at least one of a still image and a video.
이러한 카메라(120)는 적어도 하나 이상 마련될 수 있다. At least one camera 120 may be provided.
예를 들어, 카메라(120)가 단수인 때에는 차량의 전방을 촬영하도록 설치될 수 있다. For example, when the camera 120 is singular, the camera 120 may be installed to photograph the front of the vehicle.
다른 예를 들어, 카메라(120)가 복수인 때에는, 하나의 카메라(120)는 블랙박스(100) 본체에 일체로 결합되어 차량의 전방을 촬영하고, 나머지는 차량의 각 부분에 설치되어 다양한 각도에서 영상을 촬영할 수 있다. 차량의 각 부분에 설치된 카메라(120)는 촬영한 영상을 유무선으로 블랙박스(100) 본체로 송신할 수 있다.For another example, when a plurality of cameras 120, one camera 120 is integrally coupled to the body of the black box 100 to photograph the front of the vehicle, the rest is installed in each part of the vehicle to vary the angle You can take a picture from. The camera 120 installed in each part of the vehicle may transmit the captured image to the body of the black box 100 by wired or wireless.
마이크(130)는 차량의 외부 또는 내부의 소리를 획득할 수 있다. 마이크(130)는 음성과 음향을 포함하는 다양한 소리(sound)를 수신할 수 있다. The microphone 130 may acquire a sound of the outside or the inside of the vehicle. The microphone 130 may receive various sounds including voices and sounds.
예를 들어, 마이크(130)는 주행 중 발생하는 소리를 수신하고 블랙박스(100)는 이러한 주행 중 차량 및 주변의 상황에 관한 소리를 저장할 수 있다. For example, the microphone 130 may receive a sound generated while driving and the black box 100 may store a sound relating to a situation of the vehicle and the surroundings while driving.
블랙박스(100)는 이러한 소리를 이용하여 다양한 동작을 수행할 수 있는데, 예를 들어 블랙박스(100)는 통상적인 상황에서 카메라(120)를 통해 비교적 낮은 화질의 영상을 촬상하고, 일정한 크기 이상의 음량이 수신된 때 보다 높은 화질의 영상을 촬영하거나 정지영상을 촬상할 수 있다.The black box 100 may perform various operations by using such a sound. For example, the black box 100 captures a relatively low image quality through a camera 120 in a normal situation, and has a predetermined size or more. When the volume is received, a higher quality image or a still image can be taken.
제1입력부(140)는 사용자로부터 입력을 받을 수 있다. 사용자는 제1입력부(140)를 통해 블랙박스(100)의 동작을 직접 조작할 수 있다. 이러한 제1입력부(140)는 자판, 터치스크린, 마이크(130) 및 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 다른 입력장치 중 적어도 하나를 포함할 수 있다.The first input unit 140 may receive an input from a user. The user may directly manipulate the operation of the black box 100 through the first input unit 140. The first input unit 140 may include at least one of a keyboard, a touch screen, a microphone 130, and other input devices that are obvious to those skilled in the art.
제1출력부(150)는 정보를 출력할 수 있다. 사용자는 제1출력부(150)를 통해 블랙박스(100)로부터 다양한 정보를 제공받을 수 있다. The first output unit 150 may output information. The user may receive various information from the black box 100 through the first output unit 150.
이러한 제1출력부(150)는 시각적 신호, 청각적 신호 및 촉각적 신호 중 적어도 하나를 이용하여 정보를 출력할 수 있다. 예를 들어, 제1출력부(150)는 카메라(120)가 촬상한 영상을 표시하거나 마이크(130)가 획득한 소리를 재생할 수 있다.The first output unit 150 may output information using at least one of a visual signal, an audio signal, and a tactile signal. For example, the first output unit 150 may display an image captured by the camera 120 or reproduce a sound obtained by the microphone 130.
이러한 제1출력부(150)는 디스플레이, 스피커, 진동기(vibrator) 및 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 다른 입력장치 중 적어도 하나를 포함할 수 있다. The first output unit 150 may include at least one of a display, a speaker, a vibrator, and other input devices that are obvious to those skilled in the art.
디스플레이는 블랙박스(100)에서 처리되는 정보를 표시할 수 있다. 이러한 디스플레이는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉서블 디스플레이(flexible display) 및 3차원 디스플레이(3D display) 중 적어도 하나로 마련될 수 있다. The display may display information processed by the black box 100. Such displays include liquid crystal displays, thin film transistor-liquid crystal displays, organic light-emitting diodes, flexible displays, and 3D displays. It may be provided at least one of.
제1통신부(160)는 통신을 수행할 수 있다. The first communication unit 160 may perform communication.
이러한 제1통신부(160)는 제1위치정보모듈(161), 제1무선인터넷모듈(162), 제1근거리통신모듈(163) 및 제1유선통신모듈(164) 중 적어도 하나를 포함할 수 있다.The first communication unit 160 may include at least one of the first location information module 161, the first wireless internet module 162, the first short range communication module 163, and the first wired communication module 164. have.
제1위치정보모듈(161)은 글로벌내비게이션새틀라이트시스템(GNSS: global navigation satellite system)을 통하여 위치정보를 획득하는 장치이다. GNSS는 기본적으로 수신기와 인공위성으로 구성되어 수신기가 인공위성으로부터 전파신호를 수신하고, 수신한 신호에 따라 수신기의 위치를 산출하는 항법시스템을 의미한다. GNSS의 예로는, 그 운영 주체에 따라서 GPS(global positioning system), Galileo, GLONASS(global orbiting navigational satellite system), COMPASS, IRNSS(Indian regional navigational satellite system), QZSS(Quasi-Zenith satellite system) 등이 있다. 본 발명에 따른 블랙박스(100)의 제1위치정보모듈(161)은 블랙박스(100)가 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치정보를 획득할 수 있다.The first location information module 161 is a device that obtains location information through a global navigation satellite system (GNSS). GNSS basically means a navigation system composed of a receiver and a satellite so that the receiver receives a radio signal from the satellite and calculates the position of the receiver according to the received signal. Examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRRNS), and Quasi-Zenith Satellite System (QZSS), depending on the operating entity. . The first location information module 161 of the black box 100 according to the present invention may obtain location information by receiving a GNSS signal serving in an area where the black box 100 is used.
제1무선인터넷모듈(162)은 무선으로 인터넷에 접속하여 정보를 송수신하는 장치이다. 제1무선인터넷모듈(162)은 WLAN(wireless LAN), Wibro(wireless broadband), Wimax(world interoperability for microwave access), HSDPA(high speed downlink packet access) 및 그 밖의 통신규격 중 적어도 하나에 따라 통신을 수행할 수 있다.The first wireless Internet module 162 is a device for wirelessly connecting to the Internet to transmit and receive information. The first wireless Internet module 162 communicates according to at least one of a wireless LAN (WLAN), a wireless broadband (Wibro), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), and other communication standards. Can be done.
제1근거리통신모듈(163)은 근거리 무선 통신을 수행할 수 있다. 제1근거리통신모듈(163)은 블루투스(Bluetooth), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra wideband) 및 직비(ZigBee) 및 그 밖의 근거리통신규격 중 적어도 하나에 따라 통신을 수행할 수 있다.The first local area communication module 163 may perform short range wireless communication. The first near field communication module 163 may include at least one of Bluetooth, radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB) and ZigBee, and other short-range communication standards. Communication can be performed according to.
제1유선통신모듈(164)은 블랙박스(100)를 외부기기와 유선으로 연결할 수 있는 인터페이스장치이다. 제1유선통신모듈(164)은, USB(universal serial bus) 포트를 통하여 통신할 수 있는 USB 모듈이나 RS-232 규격의 포트 등을 비롯한 다양한 유선통신규격에 따른 인터페이스장치 중 적어도 하나로 마련될 수 있다.The first wired communication module 164 is an interface device that can connect the black box 100 to an external device by wire. The first wired communication module 164 may be provided with at least one of an interface device according to various wired communication standards, including a USB module capable of communicating through a universal serial bus (USB) port or a port of an RS-232 standard. .
제1통신부(160)의 구성 및 제1통신부(160)가 통신하는 방법은 상술한 예에 의하여 한정되는 것은 아니며, 제1통신부(160)는 상술한 통신모듈 및 본 발명이 속하는 기술의 분야에서 통상의 지식을 가진 자에게 자명한 다른 통신장치 중 적어도 하나를 포함하여 그에 따른 다양한 통신규격 중 적어도 하나의 통신방법으로 통신을 할 수 있다. The configuration of the first communication unit 160 and the method in which the first communication unit 160 communicates are not limited by the above-described example, and the first communication unit 160 is in the field of the communication module and the technology to which the present invention pertains. Including at least one of the other communication devices that are obvious to those skilled in the art can be communicated by at least one communication method of the various communication standards accordingly.
또한 제1통신부(160)는 반드시 하나의 통신모듈만으로 통신을 수행해야 하는 것은 아니며 필요에 따라 동시에 복수의 통신모듈을 통해 복수의 외부기기와 통신을 수행할 수 있다.In addition, the first communication unit 160 does not necessarily need to perform communication with only one communication module, but may communicate with a plurality of external devices through a plurality of communication modules at the same time as necessary.
제1감지부(170)는 블랙박스(100)의 현재상태를 감지할 수 있다. The first sensing unit 170 may detect the current state of the black box 100.
제1감지부(170)는 가속도센서, 지자기센서 및 자이로센서 중 적어도 하나를 포함할 수 있다. 여기서 가속도센서, 지자기센서 및 자이로센서는 3축센서일 수 있다. 가속도센서는 기울기 및 가속도를 측정하고, 지자기센서는 방위를 측정하고, 자이로센서는 각속도를 이용하여 각도를 측정할 수 있는 센서이다. The first sensing unit 170 may include at least one of an acceleration sensor, a geomagnetic sensor, and a gyro sensor. The acceleration sensor, the geomagnetic sensor, and the gyro sensor may be three-axis sensors. The acceleration sensor measures the inclination and acceleration, the geomagnetic sensor measures the direction, and the gyro sensor is a sensor that can measure the angle using the angular velocity.
제1감지부(170)는 이러한 센서를 이용하여 블랙박스(100)의 운동상태에 관한 운동정보를 획득할 수 있다. 나아가 블랙박스(100)는 이러한 운동정보를 제1통신부(160)를 통해 획득한 위치정보와 취합하여 차량의 움직임을 보다 정확히 산출할 수 있다.The first detecting unit 170 may obtain exercise information regarding the exercise state of the black box 100 using such a sensor. Furthermore, the black box 100 may calculate the movement of the vehicle more accurately by collecting the exercise information with the location information obtained through the first communication unit 160.
제1저장부(180)는 정보를 저장할 수 있다. The first storage unit 180 may store information.
이러한 제1저장부(180)는 정보를 임시로 또는 반영구적으로 저장할 수 있다. 예를 들어, 제1저장부(180)는 카메라(120)가 촬영한 영상을 저장할 수 있다. 다른 예를 들어, 제1저장부(180)는 카메라(120)가 촬상한 영상을 임시로 저장하고 사고 등의 이벤트가 발생한 때 이를 반영구적으로 저장할 수 있다.The first storage unit 180 may temporarily or semi-permanently store information. For example, the first storage unit 180 may store an image captured by the camera 120. For another example, the first storage unit 180 may temporarily store an image captured by the camera 120 and semi-permanently store it when an event such as an accident occurs.
이러한 제1저장부(180)는 다양한 저장매체를 포함할 수 있다. 예를 들어, 제1저장부(180)는 플래쉬메모리(flash memory), 램(RAM: random access memory), 에스램(SRAM: static random access memory), 롬(ROM: read only memory), 이이피롬(EEPROM: electrically erasable programmable read only memory), 하드디스크(hard disk), 자기메모리, 자기디스크(magnetic disc), 씨디나 블루레이 등의 광디스크(optical disc), 에스디카드(SD card) 등의 카드타입메모리 및 본 발명이 속하는 기술의 분야에서 통상의 지식을 가진 자에게 자명한 다른 저장매체 중 적어도 하나를 포함할 수 있다. The first storage unit 180 may include various storage media. For example, the first storage unit 180 may be a flash memory, a random access memory (RAM), a static random access memory (SRAM), a read only memory (ROM), or an Ipyrom. Card type such as (EEPROM: electrically erasable programmable read only memory), hard disk, magnetic memory, magnetic disk, optical disc such as CD or Blu-ray, SD card It may include at least one of a memory and other storage media that will be apparent to those of ordinary skill in the art.
이러한 제1저장부(180)는 블랙박스(100)의 내부에 내장된 형태, 장탈착이 가능한 형태 및 외부에 별도로 위치하는 방식 중 적어도 하나로 마련될 수 있을 것이다.The first storage unit 180 may be provided in at least one of a form embedded in the interior of the black box 100, a form detachable form and a method of separately located in the outside.
제1제어부(190)는 블랙박스(100)의 전반적인 동작 및 블랙박스(100)의 다른 구성요소를 제어할 수 있다. 예를 들어, 제1제어부(190)는 각종 정보를 연계시키고, 그 정보를 사용할 수 있도록 처리할 수 있다. The first controller 190 may control the overall operation of the black box 100 and other components of the black box 100. For example, the first controller 190 may link various types of information and process the information so that the information can be used.
이러한 제1제어부(190)는 소프트웨어, 하드웨어 또는 이들의 조합을 이용하여 컴퓨터 또는 이와 유사한 장치로 구현될 수 있다. The first control unit 190 may be implemented as a computer or a similar device using software, hardware, or a combination thereof.
제1제어부(190)는, 하드웨어적으로 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로컨트롤러(micro-controllers), 마이크로프로세서(microprocessors) 및 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 제어기능을 수행하기 위한 전기적인 장치 중 적어도 하나로 구현될 수 있다.The first controller 190 is hardware-specific application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors. at least one of processors, controllers, micro-controllers, microprocessors, and electrical devices for performing control functions apparent to those of ordinary skill in the art. It can be implemented as one.
제1제어부(190)는, 소프트웨어적으로 하나 이상의 프로그램 언어로 쓰여진 소프트웨어코드 또는 소프트웨어어플리케이션에 의해 구현될 수 있다. 이러한 소프트웨어는 제1저장부(180)에 저장되고 제1제어부(190)의 하드웨어적인 구성에 의해 실행될 수 있다. 또 소프트웨어는 외부기기, 예를 들어 서버(300) 등으로부터 블랙박스(100)로 송신됨으로써 블랙박스(100)에 설치될 수 있다.The first control unit 190 may be implemented by software code or software application written in one or more programming languages. Such software may be stored in the first storage unit 180 and executed by a hardware configuration of the first control unit 190. In addition, the software may be installed in the black box 100 by being transmitted from the external device, for example, the server 300 to the black box 100.
제1제어부(190)에 관한 상세한 내용은 본 발명에 따른 제보방법의 설명에서 후술될 것이다.Details of the first control unit 190 will be described later in the description of the reporting method according to the present invention.
이하에서는 내비게이션(200)에 관하여 도 4를 참조하여 설명한다. 도 4는 본 발명에 따른 내비게이션(200)의 일 실시예에 관한 구성도이다.Hereinafter, the navigation 200 will be described with reference to FIG. 4. 4 is a block diagram of an embodiment of the navigation 200 according to the present invention.
내비게이션(200)은 위치정보를 획득하고 경로를 안내할 수 있다. 얘를 들어, 내비게이션(200)은 지리정보에 따라 지도를 표시하고, 위성으로부터 전파를 수신하여 위치정보를 획득하여 현재위치를 지도 상에 표시할 수 있다. 다른 예를 들어, 내비게이션(200)은 목적지를 입력받아 현재위치 또는 출발지로부터 목적지까지의 경로를 탐색하여 경로안내를 수행할 수 있다.The navigation 200 may acquire location information and guide a route. For example, the navigation 200 may display a map according to geographic information, receive radio waves from satellites, obtain location information, and display the current location on a map. For another example, the navigation 200 may receive a destination and search for a route from a current location or a departure point to a destination to perform route guidance.
이러한 내비게이션(200)은 도 2 및 도 4에 도시된 바와 같이, 사용자로부터 입력을 받는 제2입력부(210), 사용자에게 정보를 제공하는 제2출력부(220), 외부기기와 통신을 수행하는 제2통신부(230), 내비게이션(200)의 상태를 감지하는 제2감지부(240), 정보를 저장하는 제2저장부(250) 및 내비게이션(200)의 전반적인 동작을 제어하는 제2제어부(260) 중 적어도 하나를 포함할 수 있다. 본 발명에 따른 내비게이션(200)에 있어서, 상술한 구성요소는 필수적인 구성요소는 아니며, 따라서 내비게이션(200)은 상술한 구성요소를 선택적으로 포함할 수 있다.As illustrated in FIGS. 2 and 4, the navigation 200 may communicate with a second input unit 210 that receives an input from a user, a second output unit 220 that provides information to a user, and an external device. The second communication unit 230, the second detection unit 240 for detecting the state of the navigation 200, the second storage unit 250 for storing information and the second control unit for controlling the overall operation of the navigation ( 260). In the navigation 200 according to the present invention, the above-described components are not essential components, so the navigation 200 may optionally include the above-described components.
본 발명에서 내비게이션(200)과 블랙박스(100)는 물리적으로 별개로 구현되거나 또는 일체로 구현될 수 있다. In the present invention, the navigation 200 and the black box 100 may be implemented physically separately or integrally.
또 내비게이션(200)과 블랙박스(100)에 있어서 공통되는 기능을 수행하는 구성요소는 어느 하나의 장치에만 구현되고, 다른 하나의 장치에는 생략될 수 있다. 예를 들어, 내비게이션(200)이 제1통신부(160)를 통해 위치정보를 획득하는 때에는 블랙박스(100)에는 위치정보를 통신하는 기능을 하는 제1통신부(160), 구체적으로 제1위치정보모듈(161)이 생략될 수 있다. 이때 블랙박스(100)는 위성으로부터 직접 전파를 받는 것이 아니라 내비게이션(200)으로부터 위치정보를 획득할 수 있을 것이다.In addition, components that perform common functions in the navigation 200 and the black box 100 may be implemented in only one device, and may be omitted in the other device. For example, when the navigation device 200 acquires location information through the first communication unit 160, the black box 100 communicates the location information with the first communication unit 160, specifically, the first location information. Module 161 may be omitted. In this case, the black box 100 may obtain location information from the navigation 200 instead of directly receiving a radio wave from a satellite.
이와 유사하게 양 장치에 있어서 공통의 기능을 수행하는 구성요소가 양 장치에 각각 구현된 경우에는 그러한 구성요소 중 하나가 다른 하나에 종속되거나 비활성화될 수 있다. 여기서 하나의 장치는 통신을 통해 다른 장치에 있는 구성요소를 이용함으로써 그 구성요소가 수행하는 기능을 간접적으로 수행할 수 있다.Similarly, if components that perform common functions in both devices are implemented in both devices, one of those components may be dependent or deactivated on the other. Here, one device may indirectly perform a function performed by a component by using a component in another apparatus through communication.
예를 들어, 내비게이션(200) 및 블랙박스(100)에는 각각의 구성요소를 제어하는 제2제어부(260)와 제1제어부(190)가 존재할 수 있는데 이때 제2제어부(260)와 제1제어부(190) 중 어느 하나가 다른 하나를 제어할 수 있다. 다른 예를 들어, 내비게이션(200)에 제2입력부(210)가 마련되고, 블랙박스(100)는 내비게이션(200)과 통신을 통해 제2입력부(210)로부터 사용자의 입력을 받을 수 있을 것이다. 또 다른 예를 들어, 내비게이션(200) 및 블랙박스(100) 중 하나만 정보를 저장할 수 있는 때에는 다른 하나는 통신을 통해 정보를 저장할 수 있다.For example, in the navigation 200 and the black box 100, there may be a second control unit 260 and a first control unit 190 for controlling each component, where the second control unit 260 and the first control unit are present. Any one of 190 may control the other. For another example, the second input unit 210 may be provided in the navigation 200, and the black box 100 may receive a user input from the second input unit 210 through communication with the navigation 200. For another example, when only one of the navigation 200 and the black box 100 can store information, the other may store information through communication.
이하에서는 내비게이션(200)의 각 구성요소에 관하여 다시 도 4 및 도 5를 참조하여 제2입력부(210), 제2출력부(220), 제2통신부(230), 제2감지부(240), 제2저장부(250) 및 제2제어부(260)의 순서로 설명한다. 도 5는 본 발명에 따른 내비게이션(200)이 작동하는 내비게이션시스템의 일 실시예에 관한 도면이다.Hereinafter, with reference to FIGS. 4 and 5, the second input unit 210, the second output unit 220, the second communication unit 230, and the second detection unit 240 will be described with reference to FIGS. 4 and 5 again with respect to each component of the navigation 200. Next, the second storage unit 250 and the second control unit 260 will be described in this order. 5 is a diagram of an embodiment of a navigation system in which the navigation 200 according to the present invention operates.
제2입력부(210)는 사용자로부터 입력을 받을 수 있다. 이러한 제2입력부(210)는 상술한 블랙박스(100)의 제1입력부(140)와 유사할 수 있다.The second input unit 210 may receive an input from a user. The second input unit 210 may be similar to the first input unit 140 of the black box 100 described above.
제2출력부(220)는 정보를 출력할 수 있다. 사용자는 제2출력부(220)를 통해 다양한 정보를 제공받을 수 있다. 제2출력부(220) 시각적 신호, 청각적 신호 및 촉각적 신호 중 적어도 하나를 이용하여 정보를 출력할 수 있다. 이러한 제2출력부(220)는 상술한 블랙박스(100)의 제1출력부(150)와 유사할 수 있다. The second output unit 220 may output information. The user may receive various information through the second output unit 220. The second output unit 220 may output information using at least one of a visual signal, an audio signal, and a tactile signal. The second output unit 220 may be similar to the first output unit 150 of the black box 100 described above.
한편, 여기서 제2출력부(220)가 터치스크린인 때에는 제2입력부(210)의 역할을 동시에 수행할 수 있을 것이다.Meanwhile, when the second output unit 220 is a touch screen, the second input unit 210 may simultaneously perform the role of the second input unit 210.
제2통신부(230)는 통신을 수행할 수 있다. 제2통신부(230)는 도 5에 도시된 바와 같이 다양한 통신망을 통해 다양한 외부기기와 통신을 수행할 수 있다. The second communication unit 230 may perform communication. As illustrated in FIG. 5, the second communication unit 230 may communicate with various external devices through various communication networks.
제2통신부(230)는 제어국(ACR) 및 기지국(RAS) 등을 통하여 네트워크에 무선으로 접속하여 그 네트워크에 연결된 외부기기와 정보를 교환할 수 있다. 또는 제2통신부(230)는 통신기능을 가진 외부기기를 통하여 간접적으로 네트워크에 접속할 수도 있다. 예를 들어, 근거리통신을 수행할 수 있는 내비게이션(200)은 근거리에 위치하고 무선인터넷통신 기능을 가진 외부기기에 접속하여 이를 통해 인터넷에 접속할 수 있다. The second communication unit 230 may wirelessly access a network through a control station (ACR), a base station (RAS), or the like, and exchange information with an external device connected to the network. Alternatively, the second communication unit 230 may indirectly access the network through an external device having a communication function. For example, the navigation 200 capable of performing short-range communication may access an external device that is located at a short distance and accesses an external device having a wireless Internet communication function.
이러한 제2통신부(230)는 제2위치정보모듈(231), 제2무선인터넷모듈(232), 제2근거리통신모듈(233), 제2유선통신모듈(234) 및 방송송수신모듈(235) 중 적어도 하나를 포함할 수 있다. 이러한 제2위치정보모듈(231), 제2무선인터넷모듈(232), 제2근거리통신모듈(233) 및 제2유선통신모듈(234)은 상술한 블랙박스(100)의 제1통신부(160)의 제1위치정보모듈(161), 제1무선인터넷모듈(162), 제1근거리통신모듈(163) 및 제1유선통신모듈(164)과 유사할 수 있다.The second communication unit 230 includes a second location information module 231, a second wireless internet module 232, a second short range communication module 233, a second wired communication module 234, and a broadcast transmission / reception module 235. It may include at least one of. The second location information module 231, the second wireless internet module 232, the second short-range communication module 233, and the second wired communication module 234 are the first communication unit 160 of the black box 100 described above. ) May be similar to the first location information module 161, the first wireless internet module 162, the first short range communication module 163, and the first wired communication module 164.
제2위치정보모듈(231)은 통신을 수행하여 위치정보를 획득할 수 있다. 제2위치정보모듈(231)은 인공위성으로부터 전파신호를 수신하여 현재위치를 산출할 수 있다. 각각의 인공위성은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 제2위치정보모듈(231)은 인공위성으로부터 송신된 L밴드 주파수가 내비게이션(200)에 도달하는데 소요된 시간에 기초하여 현재위치를 산출할 수 있다.The second location information module 231 may acquire location information by performing communication. The second location information module 231 may calculate a current location by receiving a radio wave signal from the satellite. Each satellite may transmit L band frequencies having different frequency bands. The second location information module 231 may calculate the current location based on the time taken for the L band frequency transmitted from the satellite to reach the navigation 200.
방송송수신모듈(235)은 각종 방송시스템을 통해 방송신호를 수신할 수 있다. 방송송수신모듈(235)을 통해 수신할 수 있는 방송시스템은 DMBT(digital multimedia broadcasting terrestrial), DMBS(digital multimedia broadcasting satellite), MediaFLO(media forward link only), DVBH(digital video broadcast handheld), ISDBT(integrated services digital broadcast terrestrial) 및 그 밖의 본 발명이 속하는 기술분야에 통상의 지식을 가지는 자에게 자명한 다양한 방송시스템 중 적어도 하나를 포함할 수 있다. The broadcast transmission / reception module 235 may receive broadcast signals through various broadcast systems. The broadcasting system that can be received through the broadcast transmitting / receiving module 235 includes digital multimedia broadcasting terrestrial (DMBT), digital multimedia broadcasting satellite (DMBS), media forward link only (MediaFLO), digital video broadcast handheld (DVBH), and ISDBT (integrated). services digital broadcast terrestrial) and other various broadcast systems that are obvious to those skilled in the art to which the present invention pertains.
방송송수신모듈(235)은 이러한 방송시스템으로부터 방송정보, 교통정보, 생활정보 및 그 밖의 차량의 운행에 직간접적으로 필요한 정보를 송수신할 수 있다.The broadcast transmitting / receiving module 235 may transmit and receive broadcast information, traffic information, living information, and other information directly or indirectly necessary for the operation of the vehicle from the broadcasting system.
제2감지부(240)는 내비게이션(200)의 현재상태를 감지할 수 있다. 제2감지부(240)는 운동감지모듈(241) 및 광센싱모듈(242) 중 적어도 하나를 포함할 수 있다. The second detection unit 240 may detect the current state of the navigation 200. The second sensing unit 240 may include at least one of the motion sensing module 241 and the light sensing module 242.
운동감지모듈(241)은 상술한 블랙박스(100)의 제1감지부(170)와 유사할 수 있다. The motion detection module 241 may be similar to the first detection unit 170 of the black box 100 described above.
광센싱모듈(242)은 내비게이션(200)의 주변의 조도(illuminance)를 측정할 수 있다. 내비게이션(200)은 광센싱모듈(242)이 감지한 조도에 따라 디스플레이로 구현된 제1출력부(150)의 밝기를 조절할 수 있다.The light sensing module 242 may measure illuminance of the surroundings of the navigation 200. The navigation 200 may adjust the brightness of the first output unit 150 implemented as a display according to the illumination sensed by the light sensing module 242.
제2저장부(250)는 정보를 저장할 수 있다. 이러한 제2저장부(250)는 상술한 블랙박스(100)의 제1저장부(180)와 유사할 수 있다. The second storage unit 250 may store the information. The second storage unit 250 may be similar to the first storage unit 180 of the black box 100 described above.
이러한 제2저장부(250)는 내비게이션(200)의 동작에 필요한 정보 및 내비게이션(200)의 동작에 의하여 생성된 정보를 저장할 수 있다. 여기서 내비게이션(200)의 동작에 필요한 정보는, 운영체제(OS: operating system), 경로탐색어플리케이션, 지도, 지리정보 등을 포함할 수 있다. 또 내비게이션(200)의 동작에 의하여 생성된 정보는 탐색된 경로정보, 수신한 영상 등을 포함할 수 있다. The second storage unit 250 may store information necessary for the operation of the navigation 200 and information generated by the operation of the navigation 200. The information necessary for the operation of the navigation 200 may include an operating system (OS), a route search application, a map, geographic information, and the like. In addition, the information generated by the operation of the navigation 200 may include searched route information, a received image, and the like.
한편 내비게이션(200)은 블랙박스(100)로부터 주행영상 등의 정보를 전달받고, 제2저장부(250)는 이를 저장할 수 있다.The navigation 200 receives information such as a driving image from the black box 100, and the second storage unit 250 may store the information.
제2제어부(260)는 내비게이션(200)의 전반적인 동작 및 내비게이션(200)의 다른 구성요소를 제어할 수 있다. 이러한 제2제어부(260)는 상술한 블랙박스(100)의 제1제어부(190)와 유사할 수 있다. 제2제어부(260)는 통신을 통해 블랙박스(100)를 제어하거나 반대로 통신을 통해 블랙박스(100)의 제1제어부(190)로부터 제어를 받을 수 있다. The second controller 260 may control the overall operation of the navigation 200 and other components of the navigation 200. The second controller 260 may be similar to the first controller 190 of the black box 100 described above. The second controller 260 may control the black box 100 through communication or, conversely, receive control from the first controller 190 of the black box 100 through communication.
제2제어부(260)에 관한 상세한 내용은 본 발명에 따른 제보방법의 설명에서 후술될 것이다.Details of the second control unit 260 will be described later in the description of the reporting method according to the present invention.
이하에서는 본 발명에 따른 제보방법에 관하여 설명한다.Hereinafter, the report method according to the present invention will be described.
본 발명에 따른 제보방법은 본 발명에 따른 블랙박스(100)를 이용하여 설명한다. 여기서, 블랙박스(100)는 본 발명에 따른 제보방법을 용이하게 설명하기 위하여 이용되는 것이다. 따라서, 본 발명에 따른 제보방법은 본 발명에 따른 블랙박스(100)에 의해 한정되지 아니한다.The reporting method according to the present invention will be described using the black box 100 according to the present invention. Here, the black box 100 is used to easily explain the reporting method according to the present invention. Therefore, the reporting method according to the present invention is not limited by the black box 100 according to the present invention.
본 발명에 따른 제보방법은 본 발명에 따른 블랙박스(100)와 동일한 기능을 수행하는 다른 장치를 이용하여 수행될 수 있다.The reporting method according to the present invention may be performed using another apparatus that performs the same function as the black box 100 according to the present invention.
이하에서는 본 발명에 따른 제보방법의 제1실시예에 관하여 도 6 및 도 7을 참조하여 설명한다. 도 6은 본 발명에 따른 제보방법의 제1실시예의 순서도이고, 도 7은 본 발명에 따른 제보방법의 제1실시예에 있어서 카메라(120)를 통해 촬상된 차량을 포함하는 영상에 관한 도면이다.Hereinafter, a first embodiment of a reporting method according to the present invention will be described with reference to FIGS. 6 and 7. 6 is a flowchart of a first embodiment of a reporting method according to the present invention, and FIG. 7 is a view of an image including a vehicle captured by a camera 120 in the first embodiment of the reporting method according to the present invention. .
본 발명에 따른 제보방법의 제1실시예는 도 6에 도시된 바와 같이 수배대상의 식별정보를 포함하는 수배정보를 수신하는 단계(S110), 영상을 촬영하는 단계(S120), 촬상한 영상으로부터 영상에 포함된 객체에 관한 식별이미지를 추출하는 단계(S130), 추출된 식별이미지를 분석하여 객체의 식별정보를 획득하는 단계(S140), 객체의 식별정보 및 수배대상의 식별정보를 비교하여 객체가 수배대상에 해당하는지 여부를 판단하는 단계(S150) 및 객체가 수배대상인 때 제보정보를 송신하는 단계(S160) 중 적어도 하나를 포함할 수 있다. 이하에서는 본 발명에 따른 제보방법의 제1실시예의 각 단계에 관하여 설명한다.According to a first embodiment of the method according to the present invention, as shown in FIG. 6, receiving the arrangement information including the identification information of the arrangement target (S110), photographing the image (S120), from the captured image Extracting an identification image of the object included in the image (S130), obtaining the identification information of the object by analyzing the extracted identification image (S140), comparing the identification information of the object and the identification information of the arrangement of the object The method may include at least one of determining whether S corresponds to a wanted item (S150) and transmitting report information when the object is a wanted item (S160). Hereinafter, each step of the first embodiment of the reporting method according to the present invention will be described.
블랙박스(100)는 수배대상의 식별정보를 포함하는 수배정보를 수신할 수 있다(S110).The black box 100 may receive arrangement information including identification information of the arrangement target (S110).
블랙박스(100)는 제1통신부(160)를 통해 수배정보를 수신할 수 있다. 수배정보는 수배대상에 관한 정보, 수배시간, 수배지역에 관한 정보 및 그 외의 수배와 관련된 다양한 정보 중 적어도 하나를 포함할 수 있다. The black box 100 may receive arrangement information through the first communication unit 160. Arrangement information may include at least one of the information about the arrangement, arrangement time, information on the arrangement area and other various information related to the arrangement.
수배대상은 경찰 등의 정부기관 또는 그 밖의 민간단체나 개인이 수배하는 대상일 수 있다. 이러한 수배대상은 다양할 수 있다. 예를 들어 수배대상은 차량으로써, 경찰 등의 정부기관이 수배하는 법규위반차량, 사고차량, 수배자소유차량, 용의자소유차량, 범행에 사용된 차량이나 뺑소니차량과 같은 민간이나 개인이 수배하는 차량 또는 동행차량 일 수 있다. 다른 예를 들어 수배대상은 사람으로써, 미아, 노인, 가출청소년과 같이 가출한 자, 지명수배자, 용의자, 탈영병, 간첩, 범죄자, 실종자 등일 수 있다.The wanted person may be a wanted person from a government agency such as the police or other private organizations or individuals. These arrangements can vary. For example, a wanted person is a vehicle, a vehicle that is arranged by a civilian or an individual such as a law violation vehicle, an accident vehicle, a wanted person vehicle, a suspected owner vehicle, a vehicle used for a crime, or a hit or run vehicle, arranged by a government agency such as a police officer, or It may be a companion vehicle. For example, the wanted person may be a person, such as a lost child, an elderly person, a runaway youth, a wanted person, a suspect, a deserter, a spy, a criminal, a missing person, or the like.
수배대상에 관한 정보는 수배대상을 식별하기 위한 수배대상의 식별정보일 수 있다. 예를 들어, 수배대상이 차량인 때에는 수배대상의 식별정보는 수배차량의 차량번호, 수배차량의 종류, 크기, 색깔, 그 밖의 수배차량의 외관상 특징에 관한 정보 중 적어도 하나를 포함할 수 있다. 다른 예를 들어, 수배대상이 사람인 때에는, 수배대상의 식별정보는 사람의 이름, 연령, 성별, 신장, 체중, 신체모양, 안면모양, 머리칼의 색깔, 머리모양, 입고 있을 것으로 추정되는 옷, 말투, 눈의 색깔, 흉터 및 행동상의 특징에 관한 정보 중 적어도 하나를 포함할 수 있다.The information about the wanted person may be identification information of the wanted person for identifying the wanted person. For example, when the arrangement is a vehicle, the identification information of the arrangement may include at least one of a vehicle number of the arrangement, type, size, color, and other appearance features of the arrangement. In another example, when the wanted person is a person, the wanted information of the wanted person may include a person's name, age, sex, height, weight, body shape, facial shape, color of hair, hair, clothes supposed to be worn, and tone of speech. , Eye color, scar, and behavioral information.
제1통신부(160)는 서버(300) 또는 서버(300)로부터 수배정보를 수신한 내비게이션(200) 중 적어도 하나로부터 수배정보를 수신할 수 있다. 또는 내비게이션(200)이 블랙박스(100) 대신 서버(300)로부터 수배정보를 수신하여 블랙박스(100)의 기능의 일부 또는 전부를 대신 수행할 수도 있다.The first communication unit 160 may receive arrangement information from at least one of the navigation device 200 that receives arrangement information from the server 300 or the server 300. Alternatively, the navigation 200 may perform some or all of the functions of the black box 100 by receiving arrangement information from the server 300 instead of the black box 100.
블랙박스(100)는 영상을 촬영할 수 있다(S120). The black box 100 may capture an image (S120).
카메라(120)는 영상을 촬상할 수 있다. 이러한 영상은 동영상 또는 정지영상일 수 있다. 카메라(120)가 동영상을 촬상하는 때에는 마이크(130)가 음성을 녹음할 수 있을 것이다. The camera 120 may capture an image. Such an image may be a moving image or a still image. When the camera 120 captures a video, the microphone 130 may record the voice.
제1제어부(190)는 카메라(120)가 영상을 촬영하도록 제어할 수 있다. 예를 들어, 제1제어부(190)는 제1입력부(140)를 통해 받은 사용자의 입력에 따라 카메라(120)가 영상을 촬영하도록 제어할 수 있다. 다른 예를 들어, 제1제어부(190)는 제1감지부(170)를 통해 차량이 주행하는 동안 자동으로 카메라(120)가 영상을 촬영하도록 제어할 수 있다. 또 다른 예를 들어, 제1제어부(190)는 카메라(120)가 일정한 간격에 따라 주기적으로 정지영상을 촬상하도록 제어할 수 있다. 또 다른 예를 들어, 제1제어부(190)는 통상적인 경우에 카메라(120)가 저화질의 영상을 촬영하다가, 제1감지부(170)나 마이크(130)에서 수신한 신호에 따라 사고가 발생하거나 위험상황이 발생한 때, 고화질의 영상을 촬영하거나 별도의 정지영상을 촬영하도록 카메라(120)를 제어할 수 있다. The first controller 190 may control the camera 120 to capture an image. For example, the first controller 190 may control the camera 120 to capture an image according to a user input received through the first input unit 140. For another example, the first controller 190 may control the camera 120 to automatically capture an image while the vehicle is driving through the first sensor 170. As another example, the first controller 190 may control the camera 120 to periodically capture a still image at regular intervals. In another example, the first control unit 190 in the normal case when the camera 120 captures a low-quality image, the accident occurs according to the signal received from the first detection unit 170 or the microphone 130. Or when a dangerous situation occurs, the camera 120 may be controlled to capture a high quality image or to capture a separate still image.
이처럼 촬영된 영상은 제1저장부(180)에 저장될 수 있다. 또는 영상은 제1통신부(160)를 통해 외부기기로 송신될 수 있다. 예를 들어, 블랙박스(100)의 제1통신부(160)는 서버(300) 및 내비게이션(200) 중 적어도 하나로 촬상한 영상을 송신할 수 있다. 이때 영상을 수신한 내비게이션(200)은 제2통신부(230)를 통해 영상을 다시 서버(300)로 전달하거나 제2저장부(250)에 영상을 저장할 수 있다.The captured image may be stored in the first storage unit 180. Alternatively, the image may be transmitted to the external device through the first communication unit 160. For example, the first communication unit 160 of the black box 100 may transmit an image captured by at least one of the server 300 and the navigation 200. In this case, the navigation 200 that receives the image may transfer the image to the server 300 again through the second communication unit 230 or store the image in the second storage unit 250.
또 제1제어부(190)는 카메라(120)가 촬상한 영상을 임시적으로 저장부(180)에 저장하고, 임시적으로 저장된 영상에 수배대상이 포함된 때에는 이를 반영구적으로 저장하고, 저장된 영상에 수배대상이 포함되지 아니한 때에는 이를 삭제할 수 있다.In addition, the first controller 190 temporarily stores the image photographed by the camera 120 in the storage unit 180, and semi-permanently stores the wanted image in the temporarily stored image when the wanted image is included in the temporarily stored image. If it is not included, it can be deleted.
블랙박스(100)는 촬상한 영상으로부터 영상에 포함된 객체에 관한 식별이미지를 추출할 수 있다(S130).The black box 100 may extract an identification image of an object included in the image from the captured image (S130).
제1제어부(190)는 촬상한 영상에 수배대상에 해당할 수 있는 객체가 포함된 때 그 영상으로부터 식별이미지를 추출할 수 있다. 즉, 수배대상이 차량인 때 도 7에 도시된 바와 같이 카메라(120)가 촬상한 영상에 차량이 포함되면 그 영상으로부터 차량번호판이미지를 추출할 수 있을 것이다. 이때 제1제어부(190)는 카메라(120)가 동영상을 촬영한 경우에는 동영상으로부터 소정의 프레임간격으로 정지영상을 추출하여 정지영상으로부터 식별이미지를 추출할 수 있다.The first controller 190 may extract an identification image from the image when the captured image includes an object that may correspond to an arrangement. That is, when the wanted object is a vehicle, when the vehicle is included in the image captured by the camera 120 as shown in FIG. 7, the license plate image may be extracted from the image. In this case, when the camera 120 captures a video, the first controller 190 may extract a still image at a predetermined frame interval from the video to extract an identification image from the still image.
또 제1제어부(190)는 영상으로부터 소정의 방법에 따라 식별이미지를 추출할 수 있는데, 그 전에 이러한 이미지의 추출을 용이하게 하기 위하여 영상을 전처리 할 수 있다. 이러한 전처리 과정은 반드시 이미지의 추출 전에 수행되어야 하는 것은 아니므로, 후술할 식별이미지를 분석하여 객체의 식별정보를 획득하는 단계 중에도 수행될 수 있다. In addition, the first controller 190 may extract the identification image from the image according to a predetermined method, and may preprocess the image to facilitate the extraction of the image. Since the preprocessing process is not necessarily performed before the extraction of the image, it may be performed even during the step of obtaining the identification information of the object by analyzing the identification image to be described later.
전처리 과정은 영상의 각도보정, 색조보정, 명암보정, 음영보정 및 노이즈제거 중 적어도 하나를 포함할 수 있다. 전처리 과정을 거친 영상은 선명도가 향상될 수 있으므로 제1제어부(190)는 전처리 된 영상을 이용하면 보다 용이하게 이미지를 인식할 수 있다. The preprocessing process may include at least one of angle correction, color tone correction, contrast correction, shadow correction, and noise removal of the image. Since the sharpness of the image that has been preprocessed may be improved, the first controller 190 may recognize the image more easily by using the preprocessed image.
여기서 색조보정은 영상의 그레이화, 흑백의 이진화 및 특정 색상의 강조 중 적어도 하나를 포함할 수 있으며, 음영보정은 영상에 나타나는 경계선의 굵기를 조절하는 것일 수 있으며, 노이즈제거는 영상 내의 불필요한 잡티를 제거하는 것을 포함할 수 있다. In this case, the color tone correction may include at least one of graying of the image, black and white binarization, and highlighting of a specific color.Shading correction may be adjusting the thickness of the boundary line in the image, and noise reduction may remove unnecessary blemishes in the image. It may include removing.
한편 원본영상 또는 전처리 된 영상으로부터 제1제어부(190)는 식별이미지를 추출할 수 있는데, 이러한 식별이미지는 촬상한 객체의 적어도 일부로 그 객체를 식별할 수 있는 부위에 관한 이미지를 의미할 수 있다. 예를 들어, 식별이미지는 차량을 수배하는 경우에는 차량의 번호판이미지일 수 있고, 사람을 수배하는 경우에는 사람의 안면이미지와 같은 사람의 외관의 적어도 일부의 이미지일 수 있다. Meanwhile, the first control unit 190 may extract an identification image from the original image or the preprocessed image. The identification image may mean an image of a part that can identify the object as at least a part of the photographed object. For example, the identification image may be a license plate image of a vehicle when arranging a vehicle, or may be an image of at least a part of the appearance of a person such as a face image of a man when arranging a man.
이하에서는 촬상한 영상으로부터 차량의 번호판이미지를 추출하는 방법에 관하여 다시 도 7 및 도 8을 참조하여 설명한다. 도 8은 본 발명에 따른 제보방법의 제1실시예에 있어서 영상으로부터 추출된 번호판이미지에 관한 도면이다.Hereinafter, a method of extracting the license plate image of the vehicle from the captured image will be described again with reference to FIGS. 7 and 8. 8 is a view of a license plate image extracted from an image in the first embodiment of the reporting method according to the present invention.
제1제어부(190)는 카메라(120)를 통해 도 7에 도시된 바와 같이 차량이 포함된 영상을 획득할 수 있다. 이때 차량을 포함하는 영상에는 차량을 식별하는 번호판의 이미지가 포함되어 있을 수 있다. 제1제어부(190)는 이러한 영상으로부터 식별이미지로써 도 8에 도시된 바와 같이 번호판이미지를 추출할 수 있다. As illustrated in FIG. 7, the first controller 190 may acquire an image including a vehicle through the camera 120. In this case, the image including the vehicle may include an image of a license plate for identifying the vehicle. The first controller 190 may extract the license plate image as shown in FIG. 8 as the identification image from the image.
차량의 번호판은 각 국가마다 정해진 규격에 일정한 형태를 취하도록 제작되는 것이 일반적이다. 많은 경우 이러한 번호판은 다음과 같은 특징을 가질 수 있다. The license plate of a vehicle is generally manufactured to have a certain shape according to a standard set in each country. In many cases, these license plates can have the following characteristics:
*우선, 번호판은 일정한 직사각형의 모양을 가지며 직사각형 내부에 일련의 숫자, 문자 및 기호가 기재되어 있다. 다음으로, 번호판에 있어서 바탕과 글씨는 서로 다른 특정한 색상으로 구성된다. 이때, 바탕색과 글자의 색은 보색관계처럼 서로 색상, 채도, 명도 차이가 극심한 것이 일반적이다. 예를 들어, 바탕은 초록이고, 글자는 흰색으로 구성될 수 있다. * First of all, the license plate has a certain rectangular shape with a series of numbers, letters and symbols inside the rectangle. Next, in the license plate, the background and text are composed of different specific colors. In this case, the background color and the color of the text are generally different from each other in the hue, saturation, and brightness as extreme as the complementary color relationship. For example, the background may be green and the text may be white.
제1제어부(190)는 이러한 번호판의 특징을 이용하여 다양한 방법으로 번호판을 추출할 수 있다. The first controller 190 may extract the license plate in various ways by using the features of the license plate.
첫째, 번호판은 정해진 규격에 따른 직사각형 형상으로 마련되는 것이 일반적이다. 따라서, 제1제어부(190)는 영상에서 경계선추출(edge detection)을 수행하여 가로 및 세로 경계선이 정해진 규격으로 직사각형을 구성하는 영역을 번호판으로 추출할 수 있다. First, the license plate is generally provided in a rectangular shape according to a predetermined standard. Accordingly, the first controller 190 may perform edge detection on the image to extract the area constituting the rectangle according to a standard in which horizontal and vertical boundary lines are defined, using the license plate.
둘째, 번호판은 비교적 좁은 영역에 많은 글자가 기재되어 타 영역에 비해 색상, 채도, 명도 등의 변화가 급격히 변하는 회수가 잦다. 따라서, 제1제어부(190)는 색상, 채도 및 명도 등이 연속적으로 급격하게 변화하는 영역을 번호판으로 추출할 수 있다.Second, the number plate is written in a relatively narrow area, the number of times the change in color, saturation, brightness, etc. changes more frequently than other areas. Accordingly, the first controller 190 may extract a region in which the hue, saturation, brightness, etc., change continuously and rapidly.
셋째, 번호판 및 차량이 포함된 영상 내에는 번호판을 제외하면 수직방향의 경계선이 극히 적은 것이 일반적이다. 따라서, 제1제어부(190)는 영상에서 경계선추출을 수행하여 수직방향의 경계선을 추출하고 그 사이의 영역을 번호판으로 추출할 수 있다.Third, in the image including the license plate and the vehicle, it is common that there are very few vertical boundaries except for the license plate. Accordingly, the first controller 190 may extract the boundary line in the vertical direction by performing boundary line extraction from the image and extract the region therebetween with the license plate.
넷째, 번호판은 규격에 따라 정해진 색상의 바탕색을 가지므로, 제1제어부(190)는 영상의 RGB(red-green-blue) 또는 HIS 색상정보를 이용하여 특정한 색상으로 구성된 영역을 번호판으로 추출할 수 있다.Fourth, since the license plate has a background color of a predetermined color according to the standard, the first controller 190 may extract a region consisting of a specific color into the license plate using RGB (red-green-blue) or HIS color information of the image. have.
제1제어부(190)는 상술한 방법과 그 밖의 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 다른 번호판이미지 추출방법 중 적어도 하나를 이용하여 촬상한 영상으로부터 번호판이미지를 추출할 수 있다. The first controller 190 may extract the license plate image from the captured image using at least one of the above-described method and other license plate image extraction methods that are obvious to those skilled in the art. have.
이하에서는 촬상한 영상으로부터 사람의 안면이미지를 추출하는 방법에 관하여 도 9 및 도 10을 참조하여 설명한다. 도 9는 본 발명에 따른 제보방법의 제1실시예에 있어서 카메라(120)를 통해 촬상된 사람을 포함하는 영상에 관한 도면이고, 도 10은 본 발명에 따른 제보방법의 제1실시예에 있어서 영상으로부터 추출된 안면이미지에 관한 도면이다.Hereinafter, a method of extracting a face image of a person from the captured image will be described with reference to FIGS. 9 and 10. FIG. 9 is a view of an image including a person photographed through a camera 120 in the first embodiment of the reporting method according to the present invention, and FIG. 10 is a view of the first embodiment of the reporting method according to the present invention. A diagram of facial images extracted from an image.
제1제어부(190)는 카메라(120)를 통해 도 9에 도시된 바와 같이 사람이 포함된 영상을 획득할 수 있다. 이때 사람을 포함하는 영상에는 사람의 외관의 적어도 일부의 이미지가 포함되어 있을 수 있다. 제1제어부(190)는 이러한 영상으로부터 식별이미지로써 도 10에 도시된 바와 같이 안면이미지를 추출할 수 있다. As illustrated in FIG. 9, the first controller 190 may acquire an image including a person through the camera 120. In this case, the image including the person may include at least a part of an image of the appearance of the person. The first controller 190 may extract the face image as shown in FIG. 10 as the identification image from the image.
제1제어부(190)는 안면이미지를 다양한 방법으로 추출할 수 있다.The first controller 190 may extract the facial image in various ways.
첫째, 안면은 전체적으로 사람의 피부색과 사람 및 머리의 색으로 구성되며 부분적으로 눈동자의 색. 눈자위의 흰색 및 입술의 색으로 구성된다. 제1제어부(190)는 이러한 색상정보를 이용하여 영상 중 일정한 영역 내에 상술한 색상들이 밀집해 있는 영역을 안면이미지로 추출할 수 있다.First, the face consists entirely of the color of the person's skin and the color of the person and hair, and in part the color of the pupil. It consists of white on the eyes and the color of the lips. The first controller 190 may extract, as a face image, an area in which the above-mentioned colors are concentrated in a certain area of the image by using the color information.
둘째, 안면은 눈, 코, 입 및 귀를 포함하며 이러한 안면의 구성성분은 일정한 기하학적 형상으로 배치되어 있다. 제1제어부(190)는 영상으로부터 경계선을 검출하고, 안면의 구성성분으로 추정되는 경계선이 일정한 기하학적 형상으로 배치된 영역을 안면이미지로 추출할 수 있다.Second, the face includes eyes, nose, mouth and ears, and the components of the face are arranged in a certain geometric shape. The first controller 190 may detect a boundary line from the image, and extract a region where the boundary line, which is estimated as a component of the face, is disposed in a predetermined geometric shape as a face image.
셋째, 안면은 일반적으로 타원형, 원형, 계란형의 형상을 가지므로, 제1제어부(190)는 경계선 검출을 통해 이러한 형상으로 구성된 경계선 내부를 안면이미지로 추출할 수 있다.Third, since the face generally has the shape of an oval, a circular shape, and an egg shape, the first controller 190 may extract the inside of the boundary line having such a shape as a face image by detecting the boundary line.
제1제어부(190)는 상술한 방법, 아이젠(Eigen) 함수를 이용하여 안면을 검출하는 방법, 신경망을 이용하여 안면을 검출하는 방법 및 그 밖의 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 다른 안면이미지 추출방법 중 적어도 하나를 이용하여 촬상한 영상으로부터 안면이미지를 추출할 수 있다.The first controller 190 is a person having ordinary skill in the art, the method for detecting the face using the Eigen function, the method for detecting the face using the neural network, and other aspects of the present invention. The facial image may be extracted from the captured image using at least one of other facial image extraction methods that are obvious to the user.
한편, 상술한 영상으로부터 식별이미지를 추출하는 단계가 반드시 전부 블랙박스(100)에 의해 수행되어야 하는 것은 아니다. 다시 말해 영상으로부터 식별이미지를 추출하는 단계의 적어도 일부는 내비게이션(200)에 의해 수행될 수도 있다. 예를 들어, 블랙박스(100)는 촬상한 영상을 내비게이션(200)으로 송신하고, 내비게이션(200)이 수신한 영상으로부터 식별이미지를 추출하는 것도 가능하다. On the other hand, the step of extracting the identification image from the above-described image is not necessarily performed by the black box 100. In other words, at least a part of the step of extracting the identification image from the image may be performed by the navigation 200. For example, the black box 100 may transmit the captured image to the navigation 200 and extract the identification image from the image received by the navigation 200.
블랙박스(100)는 추출된 식별이미지를 분석하여 객체의 식별정보를 획득할 수 있다(S140).The black box 100 may obtain identification information of the object by analyzing the extracted identification image (S140).
제1제어부(190)는 상술한 바와 같이 추출된 식별이미지를 분석하여 객체의 식별정보를 획득할 수 있다. 여기서, 객체의 식별정보란 객체를 식별하기 위한 정보를 의미할 수 있다. 객체의 식별정보는 수배대상의 식별정보와 대응되는 내용의 정보를 포함할 수 있다. The first controller 190 may obtain identification information of the object by analyzing the extracted identification image as described above. Here, the identification information of the object may mean information for identifying the object. The identification information of the object may include information of contents corresponding to the identification information of the arrangement.
예를 들어, 객체의 식별정보는 객체가 차량인 때에는 차량의 차량번호, 종류, 크기, 색깔, 그 밖의 차량의 외관상 특징에 관한 정보 중 적어도 하나를 포함할 수 있다. 다른 예를 들어, 객체가 사람인 때에는, 사람의 이름, 연령, 성별, 신장, 체중, 신체모양, 안면모양, 머리칼의 색깔, 머리모양, 입고 있을 것으로 추정되는 옷, 말투, 눈의 색깔, 흉터 및 행동상의 특징에 관한 정보 중 적어도 하나를 포함할 수 있다.For example, when the object is a vehicle, the identification information of the object may include at least one of vehicle number, type, size, color, and other information about an appearance feature of the vehicle. For example, when the object is a person, the person's name, age, sex, height, weight, body shape, facial shape, color of hair, hair shape, clothing assumed to be worn, tone, eye color, scar and It may include at least one of the information on the behavioral characteristics.
특히, 식별이미지가 차량의 번호판이미지인 때에는 객체의 식별정보는 차량번호이고, 식별이미지가 사람의 안면이미지인 때에는 객체의 식별정보는 안면정보일 수 있다.In particular, when the identification image is a license plate image of the vehicle, the identification information of the object may be a vehicle number, and when the identification image is a face image of a person, the identification information of the object may be facial information.
이하에서는 차량의 번호판이미지를 분석하여 차량번호를 획득하는 방법에 관하여 다시 도 8 및 도 11을 참조하여 설명한다. 도 11은 본 발명에 따른 제보방법의 제1실시예에 있어서 번호판이미지의 분석에 관한 도면이다.Hereinafter, a method of obtaining a vehicle number by analyzing a license plate image of the vehicle will be described with reference to FIGS. 8 and 11 again. FIG. 11 is a diagram related to the analysis of the license plate image in the first embodiment of the reporting method according to the present invention. FIG.
상술한 바와 같이 제1제어부(190)는 촬상한 영상에 차량이 포함된 때 도 8에 도시된 번호판이미지를 추출할 수 있다. 제1제어부(190)는 번호판이미지로부터 차량번호를 획득할 수 있다. As described above, the first controller 190 may extract the license plate image shown in FIG. 8 when the vehicle is included in the captured image. The first control unit 190 may obtain the vehicle number from the license plate image.
제1제어부(190)는 먼저 번호판이미지로부터 도 11에 도시된 바와 같이 문자하나하나의 영역, 즉 복수의 단일문장영역을 분리할 수 있다. 제1제어부(190)는 촬상된 영상으로부터 번호판이미지를 추출한 방법과 유사한 방법으로 단일문자영역을 추출할 수 있다. The first control unit 190 may first separate a single character area, that is, a plurality of single sentence areas, as shown in FIG. 11 from the license plate image. The first controller 190 may extract the single character region in a similar manner to that of extracting the license plate image from the captured image.
단일문자영역이 결정되면 제1제어부(190)는 문자인식기법을 통하여 단일문자영역을 분석하여 단일문자를 인식하고 인식된 단일문자들에 기초하여 차량번호를 획득할 수 있다. When the single character area is determined, the first controller 190 may analyze the single character area through a character recognition technique to recognize the single character and obtain a vehicle number based on the recognized single characters.
문자인식기법은 원형정합방법, 구문론적 방법, 신경망알고리즘을 이용한 방법 및 그 밖의 다양한 문자인식방법 중 적어도 하나를 포함할 수 있다. 여기서 원형정합방법이란 문자를 표준문자패턴에 정합시켜 문자를 인식하는 방법이며, 구문론적 방법은 문자의 구조적 정보, 즉 크기, 기울기 등을 고려하여 문자를 인식하는 방법이다.The character recognition technique may include at least one of a circular matching method, a syntactic method, a method using a neural network algorithm, and various other character recognition methods. Here, the circular matching method is a method for recognizing a character by matching the character with a standard character pattern, and the syntactic method is a method for recognizing a character in consideration of the structural information of the character, that is, the size and the slope.
한편, 제1제어부(190)는 차량에 관하여 상술한 차량번호 이외에도 촬상한 영상으로부터 식별이미지로써 차량이미지를 획득하고 분석하여 차량의 크기, 종류 및 색깔 등의 외관에 관한 특징을 객체의 식별정보로써 획득할 수도 있을 것이다.Meanwhile, the first controller 190 acquires and analyzes a vehicle image as an identification image from the captured image in addition to the vehicle number described above with respect to the vehicle, and uses the characteristics of the appearance of the size, type, and color of the vehicle as object identification information. You might get it.
이하에서는 사람의 안면이미지를 분석하여 안면정보를 획득하는 방법에 관하여 다시 도 10 및 도 12를 참조하여 설명한다. 도 12는 본 발명에 따른 제보방법의 제1실시예에 있어서 안면이미지의 분석에 관한 도면이다.Hereinafter, a method of obtaining facial information by analyzing a face image of a person will be described again with reference to FIGS. 10 and 12. 12 is a view of the analysis of the facial image in the first embodiment of the reporting method according to the present invention.
상술한 바와 같이 제1제어부(190)는 촬상한 영상에 사람이 포함된 때 도 10에 도시된 안면이미지를 추출할 수 있다. 제1제어부(190)는 안면이미지를 분석하여 안면정보를 획득할 수 있다. 여기서 안면정보란 안면의 특징에 관한 정보를 의미할 수 있다. As described above, the first controller 190 may extract the face image shown in FIG. 10 when a person is included in the captured image. The first controller 190 may acquire facial information by analyzing the facial image. Here, the facial information may mean information on facial features.
제1제어부(190)는 안면이미지로부터 눈, 코, 입 및 귀 등과 같은 안면의 구성성분의 각각에 관한 특징 및 이들간의 관계에 관한 특징 중 적어도 하나를 분석하여 이러한 특징을 포함하는 안면정보를 획득할 수 있다. The first controller 190 analyzes at least one of features related to each of the components of the face such as eyes, nose, mouth and ears and features related to them from the face image to obtain face information including these features. can do.
안면의 구성성분 각각에 관한 특징은, 각 안면의 구성성분의 위치나 길이, 각도, 크기 및 형태 중 적어도 하나를 포함할 수 있으며, 구성성분 간의 관계는 각 구성성분 간의 위치관계를 포함할 수 있다. 예를 들어, 제1제어부(190)는 안면이미지를 분석하여 도 12에 도시된 바와 같이 눈 사이의 거리(F1), 눈썹의 각도(F2), 코의 크기(F3), 입의 크기(F4) 등에 관한 안면정보를 획득할 수 있을 것이다. Features relating to each of the components of the face may include at least one of the position, length, angle, size, and shape of the components of each face, the relationship between the components may include a positional relationship between each component . For example, the first control unit 190 analyzes the facial image, and as shown in FIG. 12, the distance between the eyes F1, the angle of the eyebrows F2, the size of the nose F3, and the size of the mouth F4. Facial information).
제1제어부(190)는 안면이미지를 기하학적 특징을 찾는 구조적 방법, 극좌표계변환 또는 웨이블릿변환 등의 수학적 변환 필터를 이용하는 방법, 주성분분석(principal component analysis), 지역적 특징분석(local feature analysts), 선형판별분석(linear discriminant analysis) 등의 통계적 모델을 이용하는 방법, K-L 변환, 신경망모델, 3차원 정보에 관한 베이지안 확률모델을 이용한 방법 등을 이용하여 분석함으로써 안면정보를 획득할 수 있다.The first controller 190 is a structural method for finding a geometric feature of the facial image, a method using a mathematical transformation filter such as polar coordinate transformation or wavelet transformation, principal component analysis, local feature analysts, linear Facial information can be obtained by analyzing using statistical models such as linear discriminant analysis, KL transformation, neural network model, and Bayesian probabilistic model of 3D information.
한편, 제1제어부(190)는 사람에 관하여 상술한 안면정보 이외에도 식별이미지로써 사람의 외관이미지를 획득하고, 분석하여 사람의 성별, 신체정보, 옷정보, 머리모양정보 등을 포함하는 다양한 외관정보를 획득할 수 있을 것이다.On the other hand, the first control unit 190 obtains and analyzes the appearance image of the person as an identification image in addition to the facial information described above with respect to the person, and analyzes various appearance information including the gender, body information, clothes information, hair shape information, etc. of the person. Will be able to obtain.
상술한 바와 같이 식별이미지를 분석하여 객체의 식별정보를 획득하는 단계가 반드시 전부 블랙박스(100)에 의해 수행되어야 하는 것은 아니다. 다시 말해 식별이미지를 분석하여 객체의 식별정보를 획득하는 단계의 적어도 일부는 내비게이션(200)에 의해 수행될 수도 있다.As described above, the step of obtaining the identification information of the object by analyzing the identification image does not necessarily have to be performed by the black box 100. In other words, at least a part of obtaining the identification information of the object by analyzing the identification image may be performed by the navigation 200.
블랙박스(100)는 객체의 식별정보 및 수배대상의 식별정보를 비교하여 객체가 수배대상에 해당하는지 여부를 판단할 수 있다(S150). 이러한 객체의 수배대상해당여부를 판단하는 단계는 반드시 블랙박스(100)에 의하여 수행되어야 하는 것은 아닐 수 있으며 이러한 단계의 적어도 일부는 내비게이션(200)에 의해 수행될 수도 있다.The black box 100 may compare the identification information of the object and the identification information of the wanted item and determine whether the object corresponds to the wanted item (S150). Determining whether the object is wanted for arrangement may not necessarily be performed by the black box 100, and at least some of the steps may be performed by the navigation 200.
제1제어부(190)는 상술한 바와 같이 획득한 객체의 식별정보 및 수신한 수배대상의 식별정보를 비교하여 객체가 수배대상에 해당하는지를 판단할 수 있다. 제1제어부(190)는 객체의 식별정보가 수배대상의 식별정보에 포함되는 때에 객체가 수배대상에 해당하는 것으로 판단할 수 있다. 또는 제1제어부(190)는 객체의 식별정보와 수배대상의 식별정보를 비교하여 일정한 수준 이상의 유사점이 있는 때 객체를 수배대상으로 판단할 수 있다.As described above, the first controller 190 may determine whether the object corresponds to the wanted item by comparing the obtained identification information of the object and the received wanted information. When the identification information of the object is included in the identification information of the arrangement target, the first controller 190 may determine that the object corresponds to the arrangement arrangement. Alternatively, the first controller 190 may compare the identification information of the object with the identification information of the wanted item and determine the object as a wanted item when there is a similarity more than a predetermined level.
예를 들어, 객체의 식별정보가 촬영된 차량의 차량번호이고, 수배대상의 식별정보가 적어도 하나의 수배차량의 차량번호일 때, 제1제어부(190)는 촬영된 차량의 차량번호가 적어도 하나의 수배차량의 차량번호 중 하나와 일치하는 때에 객체가 수배대상에 해당하는 것으로 판단할 수 있다. For example, when the identification information of the object is a vehicle number of a photographed vehicle and the identification information of an arrangement is a vehicle number of at least one wanted vehicle, the first controller 190 has at least one vehicle number of the photographed vehicle. When one of the vehicle numbers of the wanted vehicle is matched, it can be determined that the object corresponds to the wanted arrangement.
다른 예를 들어, 제1제어부(190)는 차량번호와 수배차량번호가 일치하지는 아니하여도 일정한 개수 이상의 문자가 일치하는 때에, 즉 다시 말해 실질적으로 일치하는 때 차량을 수배차량으로 판단할 수 있다. 즉, 문자 전체 중 한 개나 두 개의 문자만 상이하고 다른 문자가 전부 일치하는 경우에는 차량을 수배차량으로 판단할 수 있을 것이다. For another example, the first controller 190 may determine the vehicle as the wanted vehicle when a certain number of characters match, that is, substantially match, even if the vehicle number does not match the wanted vehicle number. . That is, when only one or two letters of all the letters are different and all other letters match, the vehicle may be determined as a wanted vehicle.
또 다른 예를 들어, 차량번호에 있어서 기하학적으로 유사한 문자만 상이한 때에도 차량을 수배차량으로 판단할 수 있다. 구체적으로 숫자 ‘5’ 및 ‘8’은 문자인식 과정 중에 흔히 인식오류가 발생할 수 있으므로, 차량번호가 ‘1235’이고, 수배차량번호가 ‘1238’인 때에는 차량을 수배차량으로 판단할 수 있다.As another example, even when only geometrically similar characters are different in the vehicle number, the vehicle may be determined as a wanted vehicle. Specifically, since the numbers '5' and '8' may frequently cause a recognition error during the character recognition process, when the vehicle number is '1235' and the wanted vehicle number is '1238', the vehicle may be determined as a wanted vehicle.
한편 객체의 식별정보가 안면정보이고, 수배대상의 식별정보가 적어도 하나의 수배자의 안면정보인 때에는 객체의 안면정보와 수배자의 안면정보는 일반적으로 완전히 일치하기 힘들기 때문에 경우가 거의 없으므로, 제1제어부(190)는 촬영된 객체의 안면정보와 수배자의 안면정보를 비교하여 실질적으로 동일하거나 유사한 때 촬영된 사람이 수배대상인지를 판단할 수 있다. 예를 들어, 안면정보가 눈썹의 각도에 관한 정보를 포함한 때, 1도 정도의 차이는 실질적으로 동일한 것으로 판단할 수 있다. On the other hand, when the identification information of the object is facial information, and the identification information of the wanted person is at least one of the most wanted faces, since the face information of the object and the face information of the wanted person are generally hard to completely match, there is almost no first case. The controller 190 may compare the face information of the photographed object with the face information of the wanted person, and determine whether the person photographed is a wanted person when it is substantially the same or similar. For example, when facial information includes information on the angle of the eyebrows, it may be determined that the difference of about 1 degree is substantially the same.
블랙박스(100)는 객체가 수배대상인 때 제보정보를 송신할 수 있다(S160).The black box 100 may transmit the report information when the object is a wanted item (S160).
제1제어부(190)는 제1통신부(160)를 통해 객체가 수배대상에 해당하는 것으로 판단된 때 제보정보를 송신할 수 있다. 제1통신부(160)는 제보정보를 내비게이션(200) 및 서버(300) 중 적어도 하나를 포함하는 외부기기로 송신할 수 있다. The first controller 190 may transmit the report information when it is determined through the first communication unit 160 that the object corresponds to the arrangement. The first communication unit 160 may transmit the report information to an external device including at least one of the navigation 200 and the server 300.
한편 상술한 단계들이 내비게이션(200)에 의해 수행된 경우 또는 내비게이션(200)이 제보정보를 블랙박스(100)로부터 수신한 때에는 내비게이션(200)이 제보정보를 서버(300)로 송신할 수 있다.Meanwhile, when the above-described steps are performed by the navigation 200 or when the navigation 200 receives the reporting information from the black box 100, the navigation 200 may transmit the reporting information to the server 300.
여기서 제보정보는, 촬영된 객체의 식별정보, 수배대상에 관한 정보, 촬상한 이미지, 추출된 식별이미지, 제보시간, 제보위치, 제보자 및 그 외의 제보와 관련된 다양한 정보를 포함할 수 있다. Here, the report information may include identification information of the photographed object, information about a wanted item, photographed image, extracted identification image, report time, report location, reporter, and other information related to the report.
예를 들어, 차량에 관한 제보정보는, 촬영된 차량의 차량번호, 수배차량의 차량번호, 차량을 포함한 영상, 번호판이미지 및 제보차량의 이동방향 중 적어도 하나를 포함할 수 있다. For example, the reporting information about the vehicle may include at least one of a vehicle number of the photographed vehicle, a vehicle number of a wanted vehicle, an image including a vehicle, a license plate image, and a moving direction of the reporting vehicle.
다른 예를 들어, 사람에 관한 제보정보는, 수배자이름, 안면이미지, 안면정보, 발견한 위치, 발견한 시간, 이동방향 등을 포함할 수 있을 것이다. 이때, 내비게이션(200)은 영상을 촬상한 시각의 위치정보에 따라 발견한 위치를 획득할 수 있다. 내비게이션(200)은 이러한 위치정보를 블랙박스(100)에 제공하고 블랙박스(100)는 이러한 위치정보에 따라 제보정보를 획득할 수 있다. 또는 내비게이션(200)은 블랙박스(100)로부터 제보정보의 일부를 수신하여 수신한 제보정보에 위치정보를 추가하여 이를 외부기기, 예를 들어 서버(300)로 송신할 수 있다. In another example, the reporting information about the person may include a wanted person's name, facial image, facial information, location of discovery, time of discovery, direction of movement, and the like. In this case, the navigation 200 may acquire the found position according to the position information of the time when the image was captured. The navigation 200 may provide such location information to the black box 100 and the black box 100 may obtain the report information according to the location information. Alternatively, the navigation 200 may receive part of the report information from the black box 100, add location information to the received report information, and transmit the location information to an external device, for example, the server 300.
한편, 블랙박스(100)는 사용자로부터 제보정보의 송신을 지시하는 신호를 받고, 이러한 신호를 획득한 때에 선택적으로 제보정보를 송신할 수 있을 것이다. Meanwhile, the black box 100 may receive a signal instructing transmission of the report information from the user, and may selectively transmit the report information when the signal is obtained.
블랙박스(100)가 제보정보의 송신 전에 사용자로부터 송신을 지시하는 입력을 받은 뒤 제보를 수행하는 것은 다양한 장점이 있을 수 있다.Performing a report after the black box 100 receives an input indicating a transmission from a user before transmitting the report information may have various advantages.
첫째, 비록 블랙박스(100)가 카메라(120)를 통해 영상을 촬영하여 수배대상을 발견한 경우라도 사용자가 제보를 원하지 아니할 수 있다. 따라서, 사용자가 제보를 원하는 경우에만 제보를 수행하도록 제보 전에 사용자의 허가를 받을 필요가 있을 수 있다. First, even if the black box 100 finds an arrangement through photographing an image through the camera 120, the user may not want to report. Thus, it may be necessary to obtain the user's permission before the report to perform the report only if the user wants the report.
둘째, 블랙박스(100)가 촬영된 영상을 분석하여 그 영상에 포함된 객체가 수배대상인지 판단하는 것은 부정확할 수 있는데, 블랙박스(100)가 부정확한 제보를 수행하는 것은 유관기관에 수사의 혼선을 초래하고, 제보를 받는 서버가 불필요한 연산을 수행하게 만들 수 있다. 따라서, 일차적으로 블랙박스(100)가 촬영된 영상에 포함된 객체가 수배대상에 해당하는 것으로 판단한 경우에 사용자가 이차적으로 다시 재판단하여 제보의 수행여부를 결정하면, 보다 정확한 제보가 이루어질 수 있다.Second, it may be inaccurate to analyze an image taken by the black box 100 to determine whether an object included in the image is a wanted object. However, performing an inaccurate report by the black box 100 may lead to an investigation by a related agency. It can cause confusion and cause the server to be reported to perform unnecessary operations. Therefore, when the user first determines that the object included in the image captured by the black box 100 corresponds to a wanted object, the user may secondarily re-determine and determine whether to perform the report. .
이를 위해 제1제어부(190)는 일차적으로 객체가 수배대상에 해당하는 것으로 판단한 때, 사용자가 이차적으로 객체의 수배대상 해당여부를 판단하기 위한 정보를 출력하도록 제1출력부(150)를 제어할 수 있다. 여기서, 객체의 수배대상 해당여부를 판단하기 위한 정보는, 촬영된 영상의 적어도 일부, 객체에 관한 식별이미지, 객체의 식별정보 중 적어도 하나와 수배대상의 식별정보를 포함할 수 있다.To this end, when the first controller 190 primarily determines that the object corresponds to a wanted item, the first controller 190 may control the first output unit 150 to output information for secondly determining whether the object needs a wanted item. Can be. In this case, the information for determining whether the object is wanted for arrangement may include at least one of a photographed image, an identification image of the object, and identification information of the object, and identification information of the arrangement target.
예를 들어, 제1출력부(150)는 촬영된 영상으로부터 추출된 번호판이미지 및 수배차량의 차량번호를 출력할 수 있다. 이로써, 사용자는 번호판이미지에 따른 객체의 차량번호와 수배차량의 차량번호를 제공받아 촬영된 영상에 포함된 객체가 수배대상인지 여부를 판단할 수 있을 것이다.For example, the first output unit 150 may output the license plate image extracted from the photographed image and the vehicle number of the arrangement. As a result, the user may be provided with the vehicle number of the object according to the license plate image and the vehicle number of the wanted vehicle and may determine whether the object included in the captured image is a wanted object.
제1입력부(140)는 사용자로부터 제보정보의 송신을 지시하는 신호를 입력받을 수 있다. 상술한 바와 같이 제1출력부(150)가 사용자에게 객체의 수배대상 해당여부의 판단을 위한 정보를 제공하면, 사용자는 이를 바탕으로 촬영된 객체가 수배대상인지를 판단하고, 수배대상으로 판단된 때에 블랙박스(100)의 제1입력부(140)를 통해 제보를 지시하는 신호를 입력할 수 있다.The first input unit 140 may receive a signal for instructing transmission of the report information from the user. As described above, when the first output unit 150 provides the user with information for determining whether the object is to be arranged, the user determines whether the photographed object is a wanted item, and determined to be wanted. At this time, a signal indicating a report may be input through the first input unit 140 of the black box 100.
제1제어부(190)는 제1입력부(140)를 통해 제보정보의 송신을 지시하는 신호를 획득하면 상술한 바와 같이 제1통신부(160)를 통해 제보정보를 송신할 수 있을 것이다.When the first controller 190 acquires a signal indicating transmission of the report information through the first input unit 140, the first controller 190 may transmit the report information through the first communication unit 160 as described above.
이러한 본 발명에 따른 제보방법의 제1실시예에 따르면, 촬상한 영상에 포함된 객체를 분석하여 수배대상을 발견하여 이를 제보할 수 있다. 즉, 블랙박스(100) 및 내비게이션(200) 중 적어도 하나가 수배대상을 찾아 이를 유관기관에 알림으로써 수배대상을 찾는데 드는 시간과 인력이 절감될 수 있다. According to the first embodiment of the reporting method according to the present invention, an object included in the captured image may be analyzed to find a wanted item and report it. In other words, at least one of the black box 100 and the navigation 200 finds an arranging target and notifies the relevant agency to reduce the time and manpower required to find the arranging target.
또 제1실시예에 따르면, 서버(300) 대신 블랙박스(100) 및 내비게이션(200) 중 적어도 하나가 수배정보를 활용하여 촬상된 영상에 포함된 객체가 수배대상인지 판단함으로써 서버(300)가 과도한 작업을 처리하지 아니할 수 있는 효과가 있다. In addition, according to the first embodiment, the server 300 determines whether at least one of the black box 100 and the navigation 200 is an arrangement of the wanted object by using the arrangement information instead of the server 300. There is an effect that can not handle excessive work.
또 제1실시예에 따르면, 수배대상이 발견된 시각이나 위치 등과 같은 다양한 정보를 함께 제보함으로써, 수배대상을 찾기 용이해질 수 있다.In addition, according to the first embodiment, it is possible to easily find the wanted object by providing various information such as the time or location where the wanted object was found.
이하에서는 본 발명에 따른 제보방법의 제2실시예에 관하여 도 13 및 도 14를 참조하여 설명한다. 도 13은 본 발명에 따른 제보방법의 제2실시예의 순서도이고, 도 14는 본 발명에 따른 제보방법의 제2실시예에 있어서 수배지역에 따른 수배정보의 송신에 관한 도면이다.Hereinafter, a second embodiment of the reporting method according to the present invention will be described with reference to FIGS. 13 and 14. FIG. 13 is a flowchart of a second embodiment of a reporting method according to the present invention, and FIG. 14 is a diagram of transmission of arrangement information according to an arrangement area in a second embodiment of the reporting method according to the present invention.
본 발명에 따른 제보방법의 제2실시예는 도 13에 도시된 바와 같이 제보대상의 식별정보를 포함한 수배정보를 송신하는 단계(S210), 제보대상의 식별정보를 포함한 제보정보를 수신하는 단계(S220), 제보정보 및 수배정보를 비교하여 제보된 객체가 수배대상에 해당하는지 여부를 판단하는 단계(S230), 제보된 객체가 수배대상에 해당하는 때 제보정보를 제공하는 단계(S240) 및 제보된 객체가 수배대상에 해당하는 때 제보정보에 따른 제보자를 포상대상으로 선정하는 단계(S250)를 중 적어도 하나를 포함할 수 있다. 이하에서는 본 발명에 따른 제보방법의 제2실시예의 각 단계에 관하여 설명한다.According to a second embodiment of the reporting method according to the present invention, as illustrated in FIG. 13, transmitting arrangement information including identification information of a reporting target (S210) and receiving reporting information including identification information of a reporting target ( S220), comparing the report information and arrangement information to determine whether the reported object corresponds to the arrangement of the wanted (S230), providing information when the reported object corresponds to the arrangement of the arrangement (S240) and reporting At least one of selecting a whistleblower according to the whistleblowing information as an award target when the object corresponds to a wanted item (S250). Hereinafter, each step of the second embodiment of the report method according to the present invention will be described.
서버(300)는 수배대상의 식별정보를 포함한 수배정보를 송신할 수 있다(S210).The server 300 may transmit the arrangement information including the identification information of the arrangement target (S210).
서버(300)는 수배정보를 외부기기로 송신할 수 있다. 이러한 수배정보에는 수배대상의 식별정보가 포함될 수 있다. 여기서 외부기기는 블랙박스(100) 및 내비게이션(200) 중 적어도 하나를 포함할 수 있다. 서버(300)는 반드시 블랙박스(100) 및 내비게이션(200)으로 직접 수배정보를 송신해야 하는 것은 아니며 다른 외부기기를 중계하여 수배정보를 송신할 수도 있다.The server 300 may transmit the arrangement information to the external device. Such arrangement information may include identification information of the arrangement. The external device may include at least one of the black box 100 and the navigation 200. The server 300 does not necessarily need to transmit arrangement information directly to the black box 100 and the navigation 200, but may also transmit arrangement information by relaying other external devices.
이러한 서버(300)는 수배정보를 일정한 조건에 따라 송신할 수 있다. The server 300 may transmit the arrangement information according to a predetermined condition.
예를 들어, 서버(300)는 일정한 지역에 위치하는 외부기기로 수배정보를 송신할 수 있다. 구체적으로 서버(300)는 수배대상을 수배하는 지역에 위치하는 외부기기로 수배정보를 송신할 수 있다. For example, the server 300 may transmit arrangement information to an external device located in a certain region. In more detail, the server 300 may transmit arrangement information to an external device located in an arrangement area for arrangement.
또는 서버(300)는 수배정보를 송신하고, 외부기기는 수배정보에 포함된 수배지역에 관한 정보를 먼저 수신하고, 현재 위치가 수배지역에 해당하는 때 나머지 수배정보를 수신할 수도 있을 것이다. Alternatively, the server 300 may transmit the arrangement information, the external device may first receive information about the arrangement area included in the arrangement information, and may receive the remaining arrangement information when the current location corresponds to the arrangement area.
또는 서버(300)는 수배지역에 관한 정보를 포함하는 수배정보를 송신하고, 이를 수신한 블랙박스(100) 및 내비게이션(200) 중 적어도 하나는 현재위치에 따라 수배정보의 일부를 활성화하고, 일부를 비활성화할 수 있다. 예를 들어 도 14에 도시된 바와 같이, 블랙박스(100)는 서울경기지역(D1) 및 부산경남지역(D2)에 대한 수배정보를 수신하여 저장하고, 서울경기지역에 위치한 때에는 서울경기지역에 관한 수배정보를 활성화할 수 있다. 이러한 블랙박스(100)가 이동하여 부산경남지역에 위치하면 블랙박스(100)는 서울경기지역에 관한 수배정보를 비활성화하고 부산경남지역에 관한 수배정보를 활성화할 수 있을 것이다.Alternatively, the server 300 transmits wanted information including information about a wanted area, and at least one of the black box 100 and the navigation 200 which has received the wanted information activates a part of the wanted information according to a current position, and partially Can be deactivated. For example, as shown in FIG. 14, the black box 100 receives and stores arrangement information for the Seoul Gyeonggi area D1 and Busan Gyeongnam area D2, and when located in the Seoul Gyeonggi area, Wanted information can be activated. When the black box 100 moves and is located in the Busan Gyeongnam area, the black box 100 may deactivate the arrangement information for the Seoul Gyeonggi area and activate the arrangement information for the Busan Gyeongnam area.
서버(300)는 이러한 수배정보를 유관기관, 예를 들어, 경찰이나 미아찾기단쳬 등으로부터 수신할 수 있다. 또는 서버(300)가 이러한 유관기관에 설치되어 수배정보를 유관기관의 구성원으로부터 직접 입력받을 수도 있을 것이다. 새로운 수배정보를 획득되거나 수배정보가 수정되면 서버(300)는 새로이 획득된 수배정보나 수정된 수배정보를 외부기기로 송신할 수 있다.The server 300 may receive such arrangement information from a related organization, for example, a police officer or a lost child. Alternatively, the server 300 may be installed in such a related institution and receive the arrangement information directly from a member of the related organization. When new arrangement information is obtained or arrangement information is modified, the server 300 may transmit newly acquired arrangement information or modified arrangement information to an external device.
서버(300)는 제보대상의 식별정보를 포함한 제보정보를 수신할 수 있다(S220), The server 300 may receive the report information including the identification information of the report target (S220),
서버(300)는 외부기기로부터 제보정보를 수신할 수 있다. 이러한 제보정보는, 제보대상의 식별정보를 포함할 수 있다. 여기서, 제보대상이란, 상술한 본 발명에 따른 제보방법의 제1실시예에서 카메라(120)로 촬영된 영상에 포함된 객체를 포함할 수 있다. 외부기기는 전화, 이동통신단말기, PDA(personal digital assistance), PC(personal computer), 인터넷과 상술한 블랙박스(100), 내비게이션(200) 및 그 밖의 통신기능을 수행하여 제보할 수 있는 다양한 장치 중 하나를 포함할 수 있다.The server 300 may receive the report information from an external device. Such reporting information may include identification information of the reporting target. Here, the report target may include an object included in an image captured by the camera 120 in the first embodiment of the report method according to the present invention. The external device is a telephone, a mobile communication terminal, a personal digital assistance (PDA), a personal computer (PC), the Internet and various devices capable of reporting by performing the above-described black box 100, navigation 200 and other communication functions. It may include one of the.
상술한 바와 같이 제보정보에는 객체의 식별정보, 촬상한 영상의 적어도 일부 및 식별이미지 중 적어도 하나가 포함될 수 있다.As described above, the report information may include at least one of identification information of an object, at least a part of the captured image, and an identification image.
서버(300)는 제보정보 및 수배정보를 비교하여 제보된 객체가 수배대상에 해당하는지 여부를 판단할 수 있다(S230). The server 300 may determine whether the reported object corresponds to a wanted item by comparing the reported information and the wanted information (S230).
서버(300)는 제보정보 및 수배정보를 비교하여 제보된 객체가 수배대상인지를 판단할 수 있다. 상술한 바와 같이 블랙박스(100) 및 내비게이션(200)은 촬상한 영상에 포함된 객체가 수배대상에 해당하는 때에 제보를 수행할 수 있다. The server 300 may determine whether the reported object is a wanted object by comparing the reported information and the wanted information. As described above, the black box 100 and the navigation 200 may perform a report when an object included in the captured image corresponds to an arrangement.
그런데 이러한 블랙박스(100)나 내비게이션(200)은 서버(300)보다 연산능력이 작을 수 있으므로 촬상한 영상에 포함된 객체가 수배대상인지 여부를 판단하는데 정확성이 서버(300)와 비교하여 낮을 수 있다. 또한 수배정보는 상술한 바와 같이 수시로 수정될 수 있는데 블랙박스(100) 및 내비게이션(200)은 수정되기 전 수배정보에 근거하여 객체의 수배대상해당여부를 판단할 수도 있을 것이다. However, since the black box 100 or the navigation 200 may have a smaller computing power than the server 300, the accuracy of the black box 100 or the navigation 200 may be lower than that of the server 300 in determining whether an object included in the captured image is an arrangement. have. In addition, the arrangement information may be modified from time to time as described above, the black box 100 and the navigation 200 may determine whether the arrangement target of the object based on the arrangement information before modification.
따라서 서버(300)가 제보정보와 수배정보를 비교하여 제보된 객체가 수배대상에 해당하는지를 다시 판단하는 것이 필요한 경우가 있을 수 있다.Therefore, there may be a case where the server 300 needs to compare the reported information with the wanted information and re-determine whether the reported object corresponds to the wanted item.
예를 들어, 서버(300)는 제보정보가 차량번호인 때에 이러한 차량번호가 수배차량번호에 포함되는지에 따라 제보된 객체가 수배대상인지를 판단할 수 있다. 만일 수배대상에서 제보된 차량번호가 삭제된 때에는 서버(300)는 수배대상이 아닌 것으로 판단될 수 있으며, 반대로 이러한 제보를 송신한 외부기기의 주변에 위치한 다른 외부기기로부터 제보정보가 기 수신된 기록이 있다면 서버(300)는 다른 제보정보를 참조하여 제보된 객체의 수배대상해당여부를 판단할 수 있을 것이다.For example, when the reporting information is a vehicle number, the server 300 may determine whether the reported object is a wanted arrangement according to whether the vehicle number is included in the wanted vehicle number. If the vehicle number reported from the wanted item is deleted, the server 300 may be determined not to be wanted. On the contrary, a record in which the reported information is previously received from another external device located in the vicinity of the external device which has sent such a report. If there is, the server 300 may determine whether the object to be arranged of the reported object with reference to other information.
다른 예를 들어, 서버(300)가 제보정보로써 촬상한 영상의 적어도 일부 또는 식별이미지를 수신한 때에는 촬상한 영상의 적어도 일부 또는 식별이미지를 분석하여 객체의 식별정보를 획득하고, 획득한 객체, 즉 제보대상의 식별정보 및 수배정보에 근거하여 객체의 수배대상해당여부를 판단할 수 있다. For example, when the server 300 receives at least a part of the captured image or the identification image as the report information, at least a part of the captured image or the identification image is analyzed to obtain identification information of the object, and the acquired object, That is, it is possible to determine whether or not the object is wanted on the basis of the identification information and the wanted information of the report target.
서버(300)가 이러한 영상 또는 식별이미지에 따라 객체의 수배대상해당여부를 판단하는 방법은 기본적으로 본 발명에 따른 제보방법의 제1실시예에 있어서, 블랙박스(100)가 촬상한 영상 및 식별이미지 등에 근거하여 객체의 수배대상해당여부를 판단하는 방법과 유사할 수 있다. 이때 서버(300)는 일반적으로 블랙박스(100)나 내비게이션(200)과 비교하여 보다 강력한 연산능력을 가지고 또 보다 개선된 영상인식 소프트웨어를 사용할 것이므로, 더 정확한 판단을 할 수 있다.In the first embodiment of the reporting method according to the present invention, a method of determining whether an object is arranged by the server 300 according to the image or the identification image is basically an image and an image captured by the black box 100. It may be similar to a method of determining whether an object is wanted based on an image or the like. In this case, the server 300 generally has a more powerful computational power compared to the black box 100 or the navigation 200 and uses an improved image recognition software, so that a more accurate judgment can be made.
서버(300)는 제보된 객체가 수배대상에 해당하는 때 제보정보를 제공할 수 있다(S240).The server 300 may provide the report information when the reported object corresponds to the wanted item (S240).
서버(300)는 제보된 객체가 수배대상으로 판단된 때 제보정보를 유관기관으로 송신할 수 있다. 또는 서버(300)가 유관기관에 설치된 때에는 서버(300)는 제보정보를 출력할 수 있다. 이로써, 경찰이나 미아찾기단체 등은 제보정보를 제공받아 이를 참고하여 수배대상을 찾을 수 있을 것이다.The server 300 may transmit the report information to the related organization when the reported object is determined to be wanted. Alternatively, when the server 300 is installed in a related organization, the server 300 may output the report information. As a result, the police or the group of missing children may be provided with the reporting information to find the wanted person.
서버(300)는 제보된 객체가 수배대상에 해당하는 때 제보정보에 따른 제보자를 포상대상으로 선정할 수 있다(S250).When the reported object corresponds to a wanted item, the server 300 may select a reporter according to the report information as an award target (S250).
서버(300)는 상술한 바와 같이 이루어진 판단의 결과 제보된 객체가 수배대상인 때 포상대상을 선정할 수 있다. 포상대상이란 제보에 대한 대가로 보상을 받는 자를 의미할 수 있다. The server 300 may select a reward target when the object reported as a result of the determination made as described above is a wanted object. The reward may mean a person who is compensated for the report.
여기서 제보정보는 제보자에 관한 정보를 포함할 수 있다. 서버(300)는 제보자에 관한 정보에 따라 제보자를 포상대상으로 선정할 수 있을 것이다. 구체적으로 서버(300)는 제보자에 관한 정보를 저장하고, 제보자에 관한 정보를 관리할 수 있다. The report information may include information about the reporter. The server 300 may select the informant as a reward according to the informant. In detail, the server 300 may store information about the informant and manage information about the informant.
또 제보정보는 제보시각에 관한 정보를 포함할 수 있다. 서버(300)는 제보시각에 관한 정보를 더 고려하여 포상대상을 선정할 수 있다. 예를 들어, 서버(300)가 복수의 제보정보를 접수할 수 있는데, 이때 각 제보정보에 포함된 제보시각에 근거하여 최초에 수신된 제보정보에 따른 제보자를 포상대상으로 선정할 수 있다.In addition, the report information may include information on the report time. The server 300 may select a reward target by further considering information on the reporting time. For example, the server 300 may receive a plurality of report information. In this case, the reporter based on the report information included in the report information may be selected as a reward.
서버(300)는 이처럼 선정된 포상대상에 대하여 다양한 혜택을 제공할 수 있다. 예를 들어, 정부기관이나 유관기관이 관리하는 서버(300)라면 포상대상에 대하여 세제 혜택을 부여하거나 포상금 또는 현상금을 지급할 수 있다. 다른 예를 들어, 사설업체가 관리하는 서버(300)라면 포상대상에 대하여 전자머니나 쿠폰을 제공할 수 있다. 서버(300)는 포상대상으로 선정된 제보자에 관한 정보와 연계하여 보상이나 대가에 관한 정보를 함께 저장할 수 있다.The server 300 may provide various benefits to the selected awards. For example, a server 300 managed by a government agency or a related agency may grant tax benefits or pay a bounty or bounty to a prize. For another example, if the server 300 managed by a private company may provide electronic money or coupons for the prize. The server 300 may store information about a reward or a price in association with information about the informant selected as a reward.
서버(300)는 이와 같이 제보자를 포상대상으로 선정하고, 선정된 제보자에게 포상대상으로 선정되었음을 알리는 메시지를 송신할 수 있다. 이러한 메시지는 블랙박스(100), 내비게이션(200) 등과 같이 제보를 수행한 장치로 송신되거나 또는 그 밖의 이동통신단말기, 전화기, 사용자의 이메일 등으로 송신될 수 있다. 여기서 송신하기 위한 주소는 제보정보에 포함되어 있을 수 있다.As such, the server 300 may select the informant as a reward and transmit a message indicating that the informant has been selected as a reward. Such a message may be transmitted to the device that reported the information, such as the black box 100, the navigation 200, or other mobile communication terminal, a telephone, or an e-mail of a user. In this case, the address for transmitting may be included in the report information.
한편 송신되는 메시지는 보상에 관한 내용을 반영하는 정보를 포함할 수 있을 것이다. 이로써, 제보자는 이러한 메시지를 수신함으로써, 제보정보가 접수되고, 포상대자로 선정되고, 그에 따라 제공받을 보상에 대하여 알 수 있을 것이다.Meanwhile, the transmitted message may include information reflecting the content of the reward. Thus, by receiving such a message, the whistleblower will be informed about the rewards that the whistleblowing information will be received, selected as the reward recipient, and thus will be provided.
이러한 본 발명에 따른 제보방법의 제2실시예에 따르면, 수배정보가 수배대상이 있을 것으로 예상되는 지역, 즉 수배지역에 위치한 외부기기로 송신됨으로써 보다 정확한 수색이 가능한 효과가 있다. 또 제보정보가 접수되면 유관기관은 제보정보에 따라 수배대상을 찾을 수 있다. 또 제보자에게 포상을 함으로써, 제보에 관한 관심을 유도할 수 있는 효과가 있다.According to the second embodiment of the reporting method according to the present invention, the arrangement information is transmitted to an external device located in the region where the arrangement is expected, that is, the arrangement area, it is possible to search more accurately. In addition, when the information is received, the related agency may find an arrangement according to the information. In addition, by rewarding the whistleblower, there is an effect that can attract attention about the whistleblower.
상술한 본 발명의 각 실시예에 따른 제보방법은, 서로 개별적으로 또는 조합되어 이용할 수 있다. 또 각 실시예를 구성하는 단계들은 다른 실시예를 구성하는 단계들과 개별적으로 또는 조합되어 이용될 수 있다. The reporting method according to each embodiment of the present invention described above can be used individually or in combination with each other. In addition, the steps configuring each embodiment may be used separately or in combination with the steps configuring another embodiment.
또한 본 발명의 각 실시예에 따른 제보방법은, 이를 수행하는 코드 또는 프로그램의 형태로 컴퓨터 판독 가능 기록매체에 저장될 수 있다.In addition, the reporting method according to each embodiment of the present invention may be stored in a computer-readable recording medium in the form of a code or a program for performing the same.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 또한 본 문서에서 설명된 실시예들은 한정되게 적용될 수 있는 것이 아니라, 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings. In addition, the embodiments described in this document may not be limitedly applied, but may be configured by selectively combining all or part of the embodiments so that various modifications may be made.

Claims (19)

  1. 통신부;Communication unit;
    카메라; 및camera; And
    상기 카메라를 통해 촬영된 영상에 포함된 객체의 식별정보를 획득하고, 상기 통신부를 통해 수배대상의 식별정보를 수신하여, 상기 객체의 식별정보 및 상기 수배대상의 식별정보를 토대로 상기 통신부를 통해 제보정보를 송신하는 제어부;를 포함하는Acquire identification information of an object included in the image photographed by the camera, receive identification information of an arrangement object through the communication unit, and report through the communication unit based on identification information of the object and identification information of the arrangement object. And a control unit for transmitting information.
    전자기기.Electronics.
  2. 제1항에 있어서,The method of claim 1,
    출력부;를 더 포함하고,Further comprising;
    상기 제어부는, 상기 객체의 식별정보 및 상기 수배대상의 식별정보를 출력하도록 상기 출력부를 제어하는The control unit controls the output unit to output identification information of the object and identification information of the arrangement target.
    전자기기.Electronics.
  3. 제2항에 있어서,The method of claim 2,
    입력부;를 더 포함하고,Further comprising;
    상기 제어부는, 상기 입력부를 통해 사용자로부터 상기 제보정보의 송신을 지시하는 신호를 입력받고, 상기 신호가 입력되는 경우, 상기 제보정보를 송신하도록 상기 통신부를 제어하는The control unit may receive a signal instructing transmission of the report information from a user through the input unit, and, when the signal is input, control the communication unit to transmit the report information.
    전자기기.Electronics.
  4. 제1항에 있어서,The method of claim 1,
    상기 제어부는, 상기 영상에 포함된 객체에 관한 식별이미지를 추출하고, 상기 식별이미지를 분석하여 상기 객체의 식별정보를 획득하는The controller is configured to extract an identification image of an object included in the image, and to obtain identification information of the object by analyzing the identification image.
    전자기기.Electronics.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 객체는, 동행차량, 수배차량, 수배자, 실종자 및 미아 중 적어도 하나를 포함하는 The object includes at least one of a companion vehicle, a wanted vehicle, a wanted person, a missing person, and a lost child.
    전자기기.Electronics.
  6. 제4항에 있어서,The method of claim 4, wherein
    상기 식별정보는, 상기 동행차량의 차량번호, 상기 수배차량의 차량번호, 상기 수배자의 외관정보, 상기 실종자의 외관 정보 및 상기 미아의 외관정보 중 적어도 하나를 포함하는 The identification information includes at least one of a vehicle number of the accompanying vehicle, a vehicle number of the wanted vehicle, appearance information of the wanted person, appearance information of the missing person, and appearance information of the missing child.
    전자기기.Electronics.
  7. 제4항에 있어서,The method of claim 4, wherein
    상기 식별이미지는, 차량의 번호판이미지 또는 사람의 외관의 적어도 일부에 관한 외관이미지를 포함하는 The identification image includes a license plate image of the vehicle or an appearance image relating to at least a part of the appearance of the person.
    전자기기.Electronics.
  8. 제5항 또는 제7항에 있어서,The method according to claim 5 or 7,
    상기 제어부는, 상기 번호판이미지에 포함된 문자를 인식하여 상기 차량의 차량번호를 획득하는The controller is configured to acquire a vehicle number of the vehicle by recognizing a character included in the license plate image.
    전자기기.Electronics.
  9. 제5항 또는 제7항에 있어서,The method according to claim 5 or 7,
    상기 제어부는, 상기 외관이미지를 분석하여 수배자, 실종자 및 미아 중 적어도 하나의 외관정보를 획득하는 The controller is configured to obtain the appearance information of at least one of a wanted person, a missing person, and a lost child by analyzing the appearance image.
    전자기기.Electronics.
  10. 제1항에 있어서,The method of claim 1,
    상기 제보정보는, 상기 촬영된 영상의 적어도 일부 및 상기 객체의 식별정보 중 적어도 하나를 포함하는The report information includes at least one of at least a portion of the photographed image and identification information of the object.
    전자기기.Electronics.
  11. 제10항에 있어서,The method of claim 10,
    상기 전자기기의 현재 위치에 관한 위치정보를 획득하는 위치획득부;를 더 포함하고,And a location acquisition unit for obtaining location information on the current location of the electronic device.
    상기 제어부는, 상기 위치정보를 획득하고, The control unit obtains the location information,
    상기 제보정보는, 상기 획득한 위치정보를 더 포함하는The report information further includes the obtained location information.
    전자기기.Electronics.
  12. 제1항에 있어서,The method of claim 1,
    상기 통신부는, 상기 제보정보를 유관기관으로 송신하는The communication unit transmits the report information to a related organization.
    전자기기.Electronics.
  13. 수배대상의 식별정보를 저장하는 저장부;A storage unit which stores identification information of an arrangement;
    통신부; 및Communication unit; And
    상기 통신부를 통해 외부기기로부터 제보대상의 식별정보를 포함하는 제보정보를 수신하고, 상기 제보대상의 식별정보 및 상기 수배대상의 식별정보가 실질적으로 일치하는 경우, 상기 통신부를 통해 상기 제보정보를 유관기관에 제공하는 제어부;를 포함하는Receiving the report information including the identification information of the subject to report from the external device through the communication unit, and if the identification information of the subject and the wanted information is substantially matched, the report information is related through the communication unit Control unit for providing to the engine; including
    전자기기.Electronics.
  14. 제13항에 있어서,The method of claim 13,
    상기 제보정보는, 제보자정보 및 제보시각정보 중 적어도 하나를 더 포함하고,The report information further includes at least one of reporter information and report time information.
    상기 제어부는, 상기 제보대상의 식별정보 및 상기 수배대상의 식별정보가 실질적으로 일치하는 경우, 상기 제보자정보 및 상기 제보시각정보 중 적어도 하나에 근거하여 포상대상을 선정하는The control unit selects a reward target based on at least one of the reporter information and the report time information when the identification information of the report subject and the identification information of the wanted object match substantially.
    전자기기.Electronics.
  15. 수배대상의 식별정보를 수신하는 단계;Receiving identification information of an arrangement;
    영상을 획득하는 단계;Obtaining an image;
    상기 영상에 포함된 객체의 식별정보를 획득하는 단계; 및Obtaining identification information of an object included in the image; And
    상기 객체의 식별정보 및 상기 수배대상의 식별정보가 실질적으로 일치하는 경우, 제보정보를 송신하는 단계;를 포함하는If the identification information of the object and the identification information of the arrangement target substantially match, transmitting the information;
    제보방법.How to report.
  16. 제15항에 있어서,The method of claim 15,
    상기 영상으로부터 상기 객체에 관한 식별이미지를 추출하는 단계; 및Extracting an identification image of the object from the image; And
    상기 식별이미지를 분석하여 상기 객체의 식별정보를 획득하는 단계;를 더 포함하는Analyzing the identification image to obtain identification information of the object;
    제보방법.How to report.
  17. 외부기기로 수배대상의 식별정보를 송신하는 단계;Transmitting identification information of a wanted object to an external device;
    상기 외부기기로부터 제보대상의 식별정보를 포함하는 제보정보를 수신하는 단계; 및Receiving report information including identification information of a report object from the external device; And
    상기 제보대상의 식별정보 및 상기 수배대상의 식별정보가 실질적으로 일치하는 경우, 상기 제보정보를 유관기관에 제공하거나 상기 제보정보를 출력하는 단계;를 포함하는If the identification information of the reporting target and the identification information of the wanted information substantially match, providing the reporting information to a related agency or outputting the reporting information;
    제보방법. How to report.
  18. 제17항에 있어서,The method of claim 17,
    상기 제보정보는, 제보자정보 및 제보시각정보 중 적어도 하나를 더 포함하고,The report information further includes at least one of reporter information and report time information.
    상기 제보대상의 식별정보 및 상기 수배대상의 식별정보가 실질적으로 일치하는 경우, 상기 제보자정보 및 상기 제보시각정보 중 적어도 하나에 근거하여 포상대상을 선정하는 단계;를 더 포함하는Selecting a reward target based on at least one of the reporter information and the report time information, when the identification information of the report subject and the identification information of the wanted object match substantially;
    제보방법.How to report.
  19. 제15항 내지 제18항 중 어느 한 항의 방법을 수행하는 Performing the method of any one of claims 15-18.
    프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer readable recording medium having recorded a program.
PCT/KR2011/009729 2010-12-22 2011-12-16 Reporting method, electronic device and recording medium performing same WO2012086965A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100132406A KR20120070888A (en) 2010-12-22 2010-12-22 Method, electronic device and record medium for provoding information on wanted target
KR10-2010-0132406 2010-12-22

Publications (2)

Publication Number Publication Date
WO2012086965A2 true WO2012086965A2 (en) 2012-06-28
WO2012086965A3 WO2012086965A3 (en) 2012-10-04

Family

ID=46314587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/009729 WO2012086965A2 (en) 2010-12-22 2011-12-16 Reporting method, electronic device and recording medium performing same

Country Status (2)

Country Link
KR (1) KR20120070888A (en)
WO (1) WO2012086965A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104964692A (en) * 2014-03-22 2015-10-07 福特全球技术公司 Tracking from a vehicle

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101671904B1 (en) * 2014-12-12 2016-11-16 김선황 System for tracing vehicle using blackbox for vehicle
KR101964838B1 (en) * 2016-12-14 2019-04-02 삼성중공업(주) Apparatus and method for providing work information, and recording medium
KR101977162B1 (en) * 2017-06-13 2019-05-10 유윤상 Camera collaboration method of smart phone

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381155A (en) * 1993-12-08 1995-01-10 Gerber; Eliot S. Vehicle speeding detection and identification
KR20030041613A (en) * 2001-11-20 2003-05-27 주식회사 기가밉스 Security system of parking lot
JP2004056415A (en) * 2002-07-19 2004-02-19 Sony Corp Photographing apparatus, photographing/recording apparatus, photographing/recording/distributing apparatus, photographing method, photographing/recording method and photographing/recording/distributing method
US20090080696A1 (en) * 2007-09-22 2009-03-26 Honeywell International Inc. Automated person identification and location for search applications
KR20100058330A (en) * 2008-11-24 2010-06-03 삼성전자주식회사 Image processing apparatus, control apparatus, image processing system comprising them, and control methods thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381155A (en) * 1993-12-08 1995-01-10 Gerber; Eliot S. Vehicle speeding detection and identification
KR20030041613A (en) * 2001-11-20 2003-05-27 주식회사 기가밉스 Security system of parking lot
JP2004056415A (en) * 2002-07-19 2004-02-19 Sony Corp Photographing apparatus, photographing/recording apparatus, photographing/recording/distributing apparatus, photographing method, photographing/recording method and photographing/recording/distributing method
US20090080696A1 (en) * 2007-09-22 2009-03-26 Honeywell International Inc. Automated person identification and location for search applications
KR20100058330A (en) * 2008-11-24 2010-06-03 삼성전자주식회사 Image processing apparatus, control apparatus, image processing system comprising them, and control methods thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104964692A (en) * 2014-03-22 2015-10-07 福特全球技术公司 Tracking from a vehicle

Also Published As

Publication number Publication date
KR20120070888A (en) 2012-07-02
WO2012086965A3 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
WO2018110964A1 (en) Electronic device and method for recognizing object by using plurality of sensors
WO2018117704A1 (en) Electronic apparatus and operation method thereof
WO2019168297A1 (en) Method of providing detailed map data and system therefor
WO2019132518A1 (en) Image acquisition device and method of controlling the same
WO2015102361A1 (en) Apparatus and method for acquiring image for iris recognition using distance of facial feature
WO2016117836A1 (en) Apparatus and method for editing content
WO2019027141A1 (en) Electronic device and method of controlling operation of vehicle
WO2017090833A1 (en) Photographing device and method of controlling the same
WO2017099314A1 (en) Electronic device and method for providing user information
WO2019124963A1 (en) Speech recognition device and method
WO2019160194A1 (en) Mobile terminal and control method therefor
WO2017131348A1 (en) Electronic apparatus and controlling method thereof
WO2012086965A2 (en) Reporting method, electronic device and recording medium performing same
WO2016175424A1 (en) Mobile terminal and method for controlling same
WO2020171333A1 (en) Electronic device and method for providing service corresponding to selection of object in image
EP3676147A1 (en) Autonomous driving apparatus and method for autonomous driving of a vehicle
WO2016126083A1 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
WO2021025509A1 (en) Apparatus and method for displaying graphic elements according to object
WO2016032039A1 (en) Apparatus for projecting image and method for operating same
WO2018052159A1 (en) Mobile terminal and control method therefor
WO2016114437A1 (en) Mobile terminal and control method therefor
WO2016093633A1 (en) Method and device for displaying content
WO2016021907A1 (en) Information processing system and method using wearable device
WO2022145999A1 (en) Artificial-intelligence-based cervical cancer screening service system
WO2019208915A1 (en) Electronic device for acquiring image using plurality of cameras through position adjustment of external device, and method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11850524

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 07-10-2013)

122 Ep: pct application non-entry in european phase

Ref document number: 11850524

Country of ref document: EP

Kind code of ref document: A2