DE60129388T2 - Personenerkennungsgerät - Google Patents

Personenerkennungsgerät Download PDF

Info

Publication number
DE60129388T2
DE60129388T2 DE60129388T DE60129388T DE60129388T2 DE 60129388 T2 DE60129388 T2 DE 60129388T2 DE 60129388 T DE60129388 T DE 60129388T DE 60129388 T DE60129388 T DE 60129388T DE 60129388 T2 DE60129388 T2 DE 60129388T2
Authority
DE
Germany
Prior art keywords
finger
image
person
blood vessel
slot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60129388T
Other languages
English (en)
Other versions
DE60129388D1 (de
Inventor
Naoto Miura
Akio Nagasaka
Takafumi Miyatake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of DE60129388D1 publication Critical patent/DE60129388D1/de
Application granted granted Critical
Publication of DE60129388T2 publication Critical patent/DE60129388T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1341Sensing with light passing through the finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Gerät und ein Verfahren zum Erkennen einer Person unter Verwendung eines durch Abbilden von Licht, das von ihrem Finger durchgelassen wird, erhaltenen Venenmusters.
  • Stand der Technik
  • Personenerkennungstechniken schließen Verfahren ein, die auf Fingerabdrücken, Irisen, der Stimme, Venen auf einem Handrücken usw. beruhen. Eine Anzahl von Firmen stellt bereits auf Fingerabdrücken beruhende Personenerkennungsgeräte her und vermarktet diese. Diese Produkte erkennen eine Person durch Lesen ihres Fingerabdrucks, indem der Fingerabdruck in Kontakt mit einem Fingerabdrucksensor gebracht wird, Endpunkte und Verzweigungspunkte des Fingerabdrucks erkannt werden und sie mit charakteristischen Punkten registrierter Fingerabdrücke verglichen werden.
  • In JP-A-295674/1998 ist ein Personenerkennungsgerät offenbart, das auf Venen auf dem Handrücken beruht. Hierbei wird der Handrücken einer Bildaufnahmekamera zugewandt, und die Reflexion des von der Kamera emittierten Lichts wird verwendet, um ein Blutgefäßmuster aufzunehmen, um die Person auf dieser Basis zu erkennen. Das Gerät ist dafür ausgelegt, zu verhindern, dass der Ort der abzubildenden Hand von einer Erkennungsrunde zu einer anderen schwankt, indem veranlasst wird, dass die Hand eine feste stabförmige Führung greift.
  • In JP-A-21373/1995 ist ein Personenerkennungsgerät offenbart, das auf Fingervenen beruht, das, insbesondere zum Verringern des Verlusts von Lichtenergie bei der Bildaufnahme, eine optische Faser in engem Kontakt mit dem Finger hält und ein Fingerbild aufnimmt.
  • In dem Dokument DE 4421237 ist ein Personenerkennungsgerät mit den Merkmalen des Oberbegriffs des Anspruchs 1 gemäß der vorliegenden Erfindung offenbart. In EP 0150697 ist ein Erkennungssystem mit einem Lichtkasten, in den der Benutzer seine Hand einführen soll, offenbart.
  • Zusammenfassung der Erfindung
  • Im Stand der Technik werden Verfahren verwendet, die sehr wahrscheinlich auf einen psychologischen Widerstand von der zu erkennenden Person treffen, wie das Nehmen des Fingerabdrucks der Person oder das Richten eines Lichtstrahls in ihr Auge. Beide der vorstehend zitierten Personenerkennungsgeräte aus dem Stand der Technik erfordern, dass ein Teil des Körpers der Person in Kontakt mit dem Erkennungsgerät gelangt, wodurch das Erkennungsgerät ungeeignet für eine Verwendung in medizinischen Pflegeeinrichtungen werden kann, wo Sauberkeit von besonderer Wichtigkeit ist. Ferner sind diese Geräte betrugsanfällig, weil sie Merkmale verwenden, die außerhalb des menschlichen Körpers freiliegend sind.
  • Die vorliegende Erfindung soll ein Sicherheitssystem in Umgebungen bereitstellen, in denen eine Berührungsfreiheit erforderlich ist, wie es in medizinischen Pflegeeinrichtungen der Fall ist. Zu diesem Zweck sieht die Erfindung ein Gerät und ein Verfahren zum Ausführen einer Personenerkennung durch berührungsfreies Aufnehmen eines Fingerbilds und Extrahieren des Venenmusters des Bilds aus diesem Fingerbild vor.
  • Die Erfindung berücksichtigt weiter ein neues Problem, das darin besteht, dass, wenn ein Fingerbild aufzunehmen ist, es für eine Drehung oder Luminanzintensitätsschwankungen anfällig ist und es daher schwierig ist, die Person mit hoher Genauigkeit zu erkennen. Dementsprechend sieht die Erfindung ein Gerät und ein Verfahren zum Ausführen einer Personenerkennung mit hoher Genauigkeit vor, wenngleich dabei ein Muster von Fingervenen verwendet wird, das für eine Drehung oder Luminanzschwankungen anfällig ist.
  • Zum Lösen dieser Aufgaben hat ein Personenerkennungsgerät gemäß der Erfindung einen Speicher zum Speichern von Venenmustern registrierter Fingerbilder, eine Schnittstelle, die mit einer Lichtquelle und einer Kamera zum Aufnehmen durchgelassenen Lichts durch Finger ausgerüstet ist, und eine Einrichtung zum Extrahieren eines in dem aufgenommenen Bild von den Fingern durchgelassenen Lichts enthaltenen Venenmusters und zum Identifizieren einer Person durch Vergleichen des extrahierten Venenmusters mit den Venenmustern registrierter Fingerbilder, wobei die Schnittstelle eine Rille aufweist, in die Finger berührungsfrei eingeführt werden, und die Lichtquelle und die Kamera einander gegenüberliegend angeordnet sind, wobei sich die Rille dazwischen befindet.
  • Die Einrichtung zur Personenerkennung ist dadurch gekennzeichnet, dass jede Drehung in der Bildaufnahmeebene, die auftritt, wenn die Finger in die Schnittstelle eingeführt werden, in dem aufgenommenen Fingerbild korrigiert wird und die Person erkannt wird, indem ein in dem in Bezug auf die Drehung korrigierten Fingerbild enthaltenes Venenmuster extrahiert wird.
  • Kurzbeschreibung der Zeichnung
  • 1 zeigt ein Beispiel der Systemkonfiguration zum Implementieren der vorliegenden Erfindung,
  • 2 zeigt ein Beispiel der Konfiguration einer Eingabeschnittstelle zum Aufnehmen eines Fingervenenbilds,
  • 3 zeigt ein anderes Beispiel der Konfiguration einer Eingabeschnittstelle zum Aufnehmen eines Fingervenenbilds,
  • 4 zeigt ein Beispiel einer Fingervenenmuster-Eingabeschnittstelle, wobei Sicherheitsmaßnahmen verwirklicht sind,
  • 5 zeigt ein Beispiel der Anordnung einer Lichtquelle und einer CCD-Kamera in einer Eingabeschnittstelle zum Abbilden eines Venenmusters in vielen Richtungen,
  • 6 zeigt ein Beispiel einer Systemkonfiguration, welche einen berührungsfreien Eintritt/Austritt einschließlich einer Personenerkennung ermöglicht,
  • 7 zeigt ein Beispiel einer Systemkonfiguration zum Ausführen einer Personenerkennung durch Kombinieren eines Venenmusters mit persönlichen Merkmalsinformationen, einschließlich einer PIN, eines Fingerabdrucks, einer Iris, einer Stimme, der Handschrift und des Gesichts,
  • 8 zeigt ein Beispiel einer Systemkonfiguration zum Aufnehmen eines Schablonenbilds eines Venenmusters unter Verwendung einer IC-Karte,
  • 9 ist ein Flussdiagramm, in dem eine Skizze der Verarbeitung durch Software zum Implementieren der Erfindung dargestellt ist,
  • 10 ist ein Bilddiagramm, das ein Verfahren zum Verfolgen des Umrisses eines Fingerbilds zeigt,
  • 11 ist ein Bilddiagramm, das ein Verfahren zum Ausführen einer Drehkorrektur gegen eine Neigung eines Fingerbilds zeigt,
  • 12 ist ein Bilddiagramm, das ein Verfahren zum Normieren eines ausgeschnittenen Teils eines Fingerbilds zeigt,
  • 13 ist ein Flussdiagramm, das zeigt, wie ein Venenmuster aus einem Fingerbild entnommen wird,
  • 14 ist ein Flussdiagramm, das zeigt, wie das Nichtübereinstimmungsverhältnis zwischen zwei Venenmustern berechnet wird,
  • 15 ist ein Flussdiagramm, das zeigt, wie die Korrelation zwischen Venenmustern durch die Verwendung von Teilbildern von zwei Venenmustern berechnet wird, und
  • 16 ist eine Tabelle, die einen Funktionsweisevergleich zwischen einem Verfahren gemäß der Erfindung und einem anderen Verfahren in Bezug auf die falsche Akzeptanzrate (FAR) und die falsche Ablehnungsrate (FRR) zeigt.
  • Beschreibung der Ausführungsformen
  • Eine Ausführungsform der vorliegenden Erfindung wird nachstehend detailliert beschrieben. 1 ist ein schematisches Blockdiagramm einer Systemkonfiguration zum Implementieren der Erfindung. Innerhalb einer Venenmuster-Eingabeschnittstelle, welche dem Teil entspricht, in den Finger einzuführen sind, befinden sich eine Lichtquelle 2, ein optisches Filter 3 und eine CCD-Kamera 4. Das Einführen von Fingern zwischen der Lichtquelle 2 und dem optischen Filter 3 führt zur Aufnahme eines Venenmusters. Von den Fingern durchgelassenes Licht wird von der CCD-Kamera 4 über das optische Filter 3 aufgenommen. Von der CCD-Kamera 4 aufgenommene Bildsignale werden unter Verwendung einer Bilderfassungsplatine 5 in einen PC 6 eingegeben. Innerhalb des PCs 6 werden die Bildsignale, die eingegeben wurden, über eine Schnittstelle 7 in einem Speicher 8 gespeichert. Ein in einem äußeren Speicher 10 enthaltenes registriertes Bild wird auch in dem Speicher 8 gespeichert. Dann bestimmt eine CPU 9 nach einem im Speicher 8 gespeicherten Programm, ob das eingegebene Bild mit dem registrierten Bild identisch ist. Es sei bemerkt, dass dieses Programm dem Erkennungsgerät auch gut unter Verwendung eines äußeren Speichermediums zugeführt werden kann. Als Speichermedium kann beispielsweise eine Diskette, eine Festplatte, eine optische Platte, eine photomagnetische Platte, eine CDROM, eine CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte oder ein ROM verwendet werden.
  • 2 zeigt ein Beispiel des Aufbaus der Fingervenenmuster-Eingabeschnittstelle 1 zum Aufnehmen eines Fingervenenmusterbilds durch ein berührungsfreies Verfahren. Die Schnittstelle hat einen Fingereinlass 22, der ein rillenförmiger Spalt ist. Durch Hindurchführen der Finger 20 durch diesen Teil wird ein Venenmuster aufgenommen. Dabei ist es nicht notwendig, die Finger in Kontakt mit dem Erkennungsgerät selbst zu bringen. Weiterhin kann durch Hindurchführen mehrerer Finger durch die Rille ein Venenmuster von mehreren Fingern aufgenommen werden. Ferner ist es durch Herunterschwenken der Finger in einer Bogenbahn, deren Zentrum an einer Schulter, einem Ellbogen oder einem Handgelenk liegt, auch möglich, ein Fingerbild durch das aufeinander folgende Hindurchführen der mehreren Finger 20 durch den Fingereinlass 22 aufzunehmen. Wenn ein solches berührungsfreies Bildaufnahmeverfahren verwendet wird, dreht sich das aufgenommene Fingerbild in Bezug auf die Ebene des aufgenommenen Bilds. Daher benötigt das aufgenommene Fingerbild unvermeidlich eine Drehkorrektur.
  • Es sei hinzugefügt, dass, wenngleich die Rille eine beliebige Richtung in Bezug auf den Boden haben kann, insbesondere wenn die Rille in einer Richtung senkrecht zum Boden bereitgestellt ist, es für die Verwendung zweckmäßig ist, dass ein Musterbild durch eine natürliche Tätigkeit des Benutzers aufgenommen werden kann, wobei seine Hand der Schwerkraft folgend geschwenkt wird.
  • Weiter besteht eine Wirkung der Schnittstellenstruktur, um die Finger auf diese Weise durch die Rille hindurchzuführen, darin, die Genauigkeit der Erkennung zu erhöhen, weil eine Drehung um die Mittelachse eines Fingers dadurch erschwert wird.
  • 3 zeigt ein anderes Beispiel der Fingervenenmuster-Eingabeschnittstelle 1. Dieses Beispiel ist eine Eingabeschnittstelle mit einem lochförmigen Fingereinlass 22. Ein Finger 20 wird in einen Fingereinlass 22 eingeführt, innerhalb dessen eine oder mehrere Lichtquellen und Bildgebungsvorrichtungen ein Bild oder Bilder von Fingervenen aufnehmen. Bei diesem Prozess kann das Venenmuster auch durch Drehen des Fingers in koaxialer Richtung um die Mittelachse des Fingers aufgenommen werden.
  • 4 zeigt andere Beispiele der berührungsfreien Fingervenenmuster-Eingabeschnittstelle, wobei die Sicherheit der Person berücksichtigt wird, wenn diese erkannt wird und die Installationsstelle der Schnittstelle passiert. Bei (a) ist eine Form dargestellt, in der die Ecken der Fingervenen muster-Eingabeschnittstelle abgeschrägt sind, um die Sicherheit der Finger, der Hand, des Arms und/oder dergleichen zu gewährleisten, wenn sie in Kontakt kommen. An manchen Installationsstellen könnte ein Vorsprung von dem Erkennungsgerät gefährlich sein. In einem solchen Fall kann das seitliche Anordnen der Rille, wie bei (b) dargestellt ist, dazu dienen, die Breite des Vorsprungs von der Schnittstelle zu verringern oder, wie bei (c) dargestellt ist, der Fingereinlass kann in die Wand der Installationsstelle selbst gebohrt werden. Bei (c) sollte die Rille jedoch oder breit genug sein, um zu ermöglichen, dass der Arm durch sie heruntergeschwenkt werden kann. Ferner kann das innere Ende des Fingereinlasses bogenförmig ausgebildet sein, so dass es zu der Bahn der Finger passt, wie bei (d) dargestellt ist, damit es mit dem Herunterschwenken des Arms und der Abbildung der Finger kompatibel ist. Diese Strukturen machen es schwierig, dass Finger in Kontakt mit dem Erkennungsgerät kommen, wenn der Arm in einem Bogen geschwenkt wird. Es ist auch möglich, die Sicherheit der Finger gegen einen Kontakt zu erhöhen, indem die Oberfläche und der Fingereinlass innerhalb des Erkennungsgeräts mit etwas weichem, wie Polstern, abgedeckt werden. Diese Figur zeigt die Anordnung von Polstern 38 entlang dem bogenförmigen Teil. Es sei hinzugefügt, dass, wenngleich bei jeder der vorstehend beschriebenen Fingervenenmuster-Eingabeschnittstellen die Rille in vertikaler Richtung geschnitten wird und ein Venenmuster aufgenommen wird, indem bewirkt wird, dass sich die Finger in vertikaler Richtung bewegen, die Rille, abhängig von den Bedingungen der Geräteinstallation, in jeder gewünschten Richtung geschnitten werden kann und die Finger in jeder gewünschten Richtung bewegt werden können.
  • 5 zeigt ein Beispiel einer Konfiguration zum Aufnehmen von Venenmustern in vielen Richtungen innerhalb der Fingervenenmuster-Eingabeschnittstelle mit mehreren Lichtquellen und Bildgebungsvorrichtungen. Mehrere Lichtquellen 2 und CCD-Kameras 4, die jeweils ein optisches Filter 3 aufweisen, sind entgegengesetzt zueinander in koaxialer Form um die Mittelachse eines Fingers 20 angeordnet. Wenn der Finger 20 in die Schnittstelle 1 eingeführt wird, nehmen diese Bildgebungsvorrichtungen Fingerbilder in vielen Richtungen auf. Diese Konfiguration hat den Vorteil, dass Venenmuster in vielen Richtungen aufgenommen werden können, ohne dass die Drehung des Fingers erforderlich wäre. Falls Interferenz zwischen den Lichtquellen die aufgenommenen Bilder stört, können die Lichtquellen mit Zeitverzögerungen für aufeinander folgende Bildaufnahmevorgänge betrieben werden.
  • 6 zeigt ein Beispiel eines Systems, bei dem die berührungsfreie Fingervenenmuster-Eingabeschnittstelle mit einer berührungsfreien automatischen Tür kombiniert ist, um das Eintreten in den Raum und das Austreten aus diesem, einschließlich einer Erkennung, berührungsfrei zu ermöglichen. Die Fingervenenmuster-Eingabeschnittstelle 1 ist an einer Wand neben der automatischen Tür 42, in die der Finger 20 eingeführt wird, installiert. Falls herausgefunden wird, dass das Venenmuster einer die Erkennung beanspruchenden Person 40 mit einem im System registrierten Venenmuster identisch ist, öffnet sich die automatische Tür 42 automatisch. Eine Haupteigenschaft besteht darin, dass alles von der Personenerkennung bis zum Öffnen/Schließen der Tür berührungsfrei ausgeführt werden kann. Als die Eingabeschnittstelle in diesem Fall kann eine beliebige der verschiedenen in 4 dargestellten Konfigurationen verwendet werden.
  • 7 zeigt ein anderes Beispiel eines Personenerkennungsgeräts, bei dem ein Venenmuster mit mehreren Erkennungsschlüsseln, einschließlich Fingerabdruck, Iris, Stimme, Handschrift und Gesicht, kombiniert wird. Die die Erkennung beanspruchende Person 40 wird durch ein Erkennungsgerät identifiziert, das an einem Ort installiert ist, an dem sie zu erkennen ist. Während die Venen der Person mit der Eingabeschnittstelle 1 abgebildet werden, um ihr Venenmuster aufzunehmen, werden andere persönliche Merkmale durch verschiedene Eingabeschnittstellen vor und nach dem Abbilden des Venenmusters eingegeben. Beispielsweise gibt die beanspruchende Person ihre persönliche Erkennungsnummer (PIN) mit einem PIN-Eingabeschlüssel 43 ein und führt einen Finger in die Venenmuster-Eingabeschnittstelle 1 ein, um erkannt zu werden. Zum weiteren Erhöhen der Genauigkeit der Erkennung gibt die Person ihren Fingerabdruck mit einer Fingerabdruck-Eingabeschnittstelle 44 ein, und eine Iris-Bildaufnahmekamera 46 und eine Gesichts-Bildaufnahmekamera 48 nehmen Bilder der Iris bzw. des Gesichts der die Erkennung beanspruchenden Person auf. Dann schreibt die Person zum Prüfen ihrer Handschrift mit einem Handschrift-Eingabestift 50 Zeichen auf ein Handschrift-Eingabetablett 52, und eine Stimme, die die Person äußert, wird durch ein Mikrofon 54 aufgenommen. Diese verschiedenen persönlichen Merkmale werden durch den PC 6 analysiert, um schließlich festzustellen, ob die Person als eine berechtigte Person zu erkennen ist. Die Art der Kombination von persönlichen Merkmalsinformationsbestandteilen, die zusammen mit dem Venenmuster zu verwenden sind, ist optional. Wenngleich es offensichtlich nicht notwendig ist, sie alle zu verwenden, werden viele dieser Informationsbestandteile in diesem Beispiel verwendet, um die Genauigkeit der Erkennung zu erhöhen. Ferner können die Fingerabdruck-Eingabevorrichtung und die Venenmuster-Abbildungsvorrichtung so integriert werden, dass beide Merkmale gleichzeitig eingegeben werden, indem die Person, die zu erkennen ist, veranlasst wird, ihren Finger nur einmal an einer vorgeschriebenen Stelle anzuordnen. Hierdurch werden dem Benutzer nicht nur Mühen erspart, sondern es wird auch möglich, eine genauere Personenerkennung zu ermöglichen.
  • 8 zeigt ein Beispiel eines Systems, bei dem eine IC-Karte verwendet wird, um das Erkennungsgerät mit einer PIN und persönlichen Merkmalsinformationen zu versehen. Die die Erkennung beanspruchende Person 40 hat eine IC-Karte 60, auf der ihre PIN und persönliche Merkmalsinformations bestandteile, einschließlich des Venenmusters, des Fingerabdrucks, der Stimme, der Iris, der Handschrift und des Gesichts, aufgezeichnet sind. Wenngleich diese Figur ein Beispiel zeigt, in dem eine berührungsfreie IC-Karte verwendet wird, ist es auch möglich, eine Berührungs-IC-Karte zu verwenden. Auf einer IC-Karte 60 aufgezeichnete Informationen werden automatisch in einen IC-Kartenleser 62 eingelesen, wenn sich ihr Träger dem IC-Kartenleser 62 nähert. Wenngleich persönliche Merkmalsinformationen dann dem Personenerkennungsgerät zugeführt werden, ist es auch vorstellbar, persönliche Merkmalsinformationen zu erfassen, indem dann nur eine Erkennungsnummer für die Person zugeführt wird und die Bestandteile der persönlichen Merkmalsinformationen gelesen werden, die von den persönlichen Merkmalsinformationen, die vorab im äußeren Speicher 10 gespeichert wurden, mit dieser Nummer übereinstimmen. In dem Beispiel dieser Figur wird ein Venenmuster als persönliche Merkmalsinformationen bereitgestellt. Danach wird ein Venenmuster erfasst, indem die Person veranlasst wird, ihren Finger in die Fingervenenmuster-Eingabeschnittstelle 1 einzuführen, und es wird mit dem aus der IC-Karte 60 oder dem äußeren Speicher 10 ausgelesenen Venenmuster verglichen. Falls die Muster miteinander übereinstimmen, wird der Kartenträger als eine berechtigte Person erkannt. Wenngleich in dieser Figur nur eine Kombination eines Venenmusters und einer IC-Karte dargestellt ist, ist es auch möglich, in Kombination verschiedene persönliche Merkmalsinformationsbestandteile, die in 7 dargestellt sind, zu verwenden.
  • Nachfolgend wird ein Softwareablauf zum Lösen der vorstehend erwähnten Probleme, der durch die vorstehend beschriebene Hardware, insbesondere durch die CPU 9, auszuführen ist, detailliert beschrieben. Es sei bemerkt, dass das Softwareprogramm zum Implementieren dieses Ablaufs auch unter Verwendung eines äußeren Speichermediums dem Erkennungsgerät zugeführt werden kann.
  • Als das Speichermedium kann beispielsweise eine Diskette, eine Festplatte, eine optische Platte, eine photomagnetische Platte, eine CDROM, eine CD-R, ein Magnetband, eine nichtflüchtige Speicherkarte oder ein ROM verwendet werden. 9 ist ein schematisches Flussdiagramm, das den Ablauf von der Zeit, zu der ein Fingerbild eingegeben wird, bis zur Erkennung der Person darstellt. Für die Personenerkennung unter Verwendung eines Venenmusters ist es notwendig, ein Venenmuster von einem eingegebenen Fingerbild zu extrahieren und es mit einem registrierten Venenmuster zu vergleichen. Daher sollte ein aufgenommenes Fingerbild eine Anzahl von Schritten durchlaufen, um es in ein Venenmuster einer mit einem registrierten Bild vergleichbaren Form umzuwandeln. Zuerst wird der Fingerumriss nach dem Durchlaufen einer Initialisierung (200) in verschiedenen Weisen erfasst (202), um nur den Fingerteil in dem Bild zu entnehmen. Zu diesem Zeitpunkt können der Winkel und der Ort, in dem der Finger abgebildet wird, erfasst werden. Nach dem Ausführen einer Drehkorrektur (204) zum Beseitigen jeder Neigung des Fingers, so dass er in jedem Winkel und an jedem Ort, an dem er abgebildet wird, richtig erkannt werden kann, wird das Fingerbild ausgeschnitten (206). Das aufgenommene Bild enthält dann nicht nur das Venenmuster, sondern auch Schatten und eine Ungleichmäßigkeit der Luminanz, welche für die Erkennung nicht notwendig sind. Daher wird zum Entnehmen nur des Venenmusters das Blutgefäß verfolgt (208). Unter Verwendung des Ergebnisses davon wird ein globaler Venenmustervergleich (210) zwischen dem registrierten Bild und dem aufgenommenen Fingerbild ausgeführt, und die Korrelation zwischen den Bildern wird als ein Beurteilungswert berechnet. Während die beanspruchende Person entsprechend der Größe des Beurteilungswerts als die berechtigte Person oder eine andere bestimmt wird, wird, falls der Beurteilungswert in der Nähe des Schwellenwerts (212) liegt, ein lokaler Vergleich (214) ausgeführt, wobei jedes Bild in Unterbereiche unterteilt wird, die jeweils mit ihrem Gegenstück verglichen werden, um Abweichungen an übereinstimmenden Stellen zu beurteilen. Schließlich wird eine abschließende Bestimmung in Bezug auf die Berechtigungsprüfung der Person vorgenommen (216).
  • Es folgt eine detaillierte Beschreibung jedes einzelnen Bestandteils in dem Flussdiagramm von 9.
  • 10 zeigt ein Beispiel der Erfassung des Fingerumrisses, wobei (a) ein schematisches Diagramm eines aufgenommenen Bilds ist. Hier wird ein Fall beschrieben, in dem der Finger in horizontaler Richtung von der linken Seite des Bilds abgebildet wird und die Fingerspitze auf der rechten Seite positioniert wird. Zuerst wird der Kontrast eingestellt, um die Grenze zwischen dem Finger 20 und dem Hintergrundteil hervorzuheben. Es ist jedoch nicht erforderlich, den Kontrast des Gesamtbilds einzustellen, sondern es ist ausreichend, den Kontrast nur der Unterseite des Bilds einzustellen, falls beispielsweise der Umriss der Unterseite unklar ist. Diese Verarbeitung hebt die Kante des Fingers hervor. Bei (b) ist dargestellt, wie die Kante des Fingers 20 bei (a) klarer gemacht werden kann.
  • Dann wird die Erfassung des Fingerumrisses tatsächlich ausgeführt. Zuerst wird ein Verfolgungspunkt 104 im Zentrum eines Bilds 100 angeordnet. Von diesem Ort wird der Punkt getrennt um jeweils ein Pixel nach oben und nach unten verschoben, und der Anfangsort für das Erfassen des Umrissteils des Fingers wird bestimmt. Weil der Fingerteil in der Mitte des Bilds dargestellt ist, haben einige Pixel, die jeweils oberhalb und unterhalb dieses Orts liegen, alle verhältnismäßig hohe Intensitäten. Wenn der Punkt weiter nach oben und nach unten verschoben wird, wird schließlich die Grenze zwischen dem Fingerteil und dem Hintergrundteil erreicht. Zu dieser Zeit sollten, während die Intensitäten einiger Pixel zum Inneren des Bilds (Fingerseite) verhältnismäßig hoch sind, jene von einigen Pixeln zur Außenseite des Bilds (Hintergrundseite) niedrig sein. Daher wird die Differenz durch Subtrahieren der Summe der Intensitäten von n äußeren Pixeln von der Summe der Intensitäten der n inneren Pixel an dem aktuellen Ort des Verfolgungspunkts 104 berechnet, und der Ort, an dem der größte Differenzwert innerhalb des Bereichs der Verschiebung des Verfolgungspunkts 104 zum oberen oder zum unteren Ende des Bilds gefunden wurde, kann als die Grenze zwischen dem Hintergrund und dem Finger bestimmt werden.
  • Die Ankunft des Verfolgungspunkts 104, der an den Grenzen zwischen dem Finger und dem Hintergrund nach oben und nach unten verschoben wird, ist bei (c) dargestellt. Als nächstes wird der Umriss des Fingers von diesem Ort verfolgt. In diesem Fall muss er auf zwei Arten verfolgt werden, nämlich nach rechts und nach links. Wenn er nach links verfolgt wird, sollte die Differenz zwischen der Summe der Intensitäten von n äußeren Pixeln und der Summe der Intensitäten der n inneren Pixel an jedem von drei Punkten zum linken, oberen linken und unteren linken Ort in Bezug auf den aktuellen Ort berechnet werden, und der Punkt mit der größten Differenz wird als der nächste Ort gewählt. Wenn die Verfolgung auf diese Weise das linke Ende des Bilds erreicht, bildet die Ortskurve der Verfolgung einen Umriss. Die Verfolgung nach rechts muss den Fingerspitzenteil abdecken. Daher sollte die Umrissverfolgung auf der Oberseite in ihrem Suchbereich einige weitere Pixel nach unten rechts des aktuellen Orts und den Bereich gerade unter dem aktuellen Ort aufweisen. Die Umrissverfolgung auf der Unterseite deckt einige weitere Pixel nach oben rechts des aktuellen Orts und den Bereich gerade oberhalb des aktuellen Orts ab. Dies ermöglicht es, sogar die Kurve mit einer hohen Krümmung an der Fingerspitze zu erfassen.
  • Das Endergebnis der Verfolgung des Fingerumrisses durch den Verfolgungspunkt 104 ist bei (d) dargestellt. Es sei hinzugefügt, dass, wenngleich die vorstehende Prozedur ein einfaches Verfolgungsverfahren verwendet hat, weil die Form des aufgenommenen Bilds fest war, die Genauigkeit offensichtlich erhöht werden kann, indem verschiedene andere Verfolgungsverfahren eingesetzt werden, die bei der Bildverarbeitung verwendet werden.
  • 11 zeigt ein Beispiel einer Drehkorrekturverarbeitung für den Finger unter Verwendung von Fingerumrissinformationen, die durch das vorstehend beschriebene Verfahren erhalten werden. Ein Bild vor der Drehkorrektur für den Finger ist bei (a) dargestellt. Die Neigung des Fingers zur Zeit der Abbildung kann durch Prüfen der Form seines Umrisses gefunden werden. Eine Korrektur, um die Neigung in jedem Fingerbild konstant zu machen, führt zur Normierung gegen eine zweidimensionale Drehung in Bezug auf die Bildebene der Kamera.
  • Während die Neigung eines Fingers als der Winkel zwischen einer angenäherten geraden Linie des Fingers und einem Horizont angesehen werden kann, wird hier als ein Beispiel ein Verfahren einer Drehkorrektur erklärt, bei der der obere Umriss verwendet wird. Der Umriss derselben Linie behält die gleiche Form, selbst wenn sich die Einführungsneigung ändert. Hier wird eine genäherte gerade Linie des Umrisses bestimmt. Im Allgemeinen ist die Positionsbeziehung zwischen einer Kurve und ihrer genäherten geraden Linie stets konstant. Daher können Umrisse der gleichen Form, deren Neigung sich unterscheidet, durch ihre genäherten geraden Linien in ihrer Neigung normiert werden. Weil die Näherung genauer gemacht werden kann, indem die genäherte gerade Linie von einer Kurve erhalten wird, die einer geraden Linie so nahe wie möglich kommt, wird die genäherte gerade Linie anhand des oberen Umrisses bestimmt, der einer Geraden näher kommt. Insbesondere wird nur der Teil des Umrisses zwischen einem Ort, der 16 Pixel von der Fingerspitze zur Wurzel des Fingers entfernt ist, und einem Ort, der 128 Pixel in derselben Richtung davor liegt, verwendet. Durch das absichtliche Vermeiden der Fingerspitze soll sich von einem Teil ferngehalten werden, der eine hohe Krümmung hat.
  • Als nächstes werden einige Pixel in dem zu verwendenden Umrissteil in gleichen Intervallen herausgegriffen, und eine gerade Linie 106, die sich dem oberen Umriss nähert, wird durch das Verfahren der kleinsten Quadrate berechnet. Schließlich wird das Ganze gedreht, um diese gerade Linie horizontal zu dem Bild zu machen, wobei das Drehzentrum als die Verbindung zwischen dieser geraden Linie und dem linken Rand des Bilds angenommen wird. Die Positionsnormierung wird später beschrieben. Das Ergebnis der Drehkorrektur, das dazu dient, die genäherte gerade Linie 106 des oberen Umrisses horizontal zu machen, ist bei (b) dargestellt. 12 zeigt ein Beispiel der Verarbeitung zum Ausschneiden eines für die Personenerkennung benötigten Teils aus dem Fingerbild, das einer Drehkorrektur unterzogen wurde. Gewöhnlich unterscheiden sich die Orte eines Fingerbilds in horizontaler und in vertikaler Richtung jedes Mal, wenn der Finger abgebildet wird. Daher ist es zum Erleichtern der Verwendung des Fingerbilds für den Vergleich notwendig, den Fingerort zu normieren. Andererseits ist es für den Zweck der Erkennung ausreichend, wenn das Bild ein Venenmuster enthält, es ist jedoch nicht erforderlich, andere irrelevante Teile beizubehalten. Daher wird ein Bild mit einer Größe, die kleiner ist als jene des ursprünglichen Bilds, aus dem Original ausgeschnitten. Dabei führt der Vergleich des ausgeschnittenen Orts mit dem gleichen Teil des Fingers stets zur Normierung des Orts des Fingers. Umrissinformationen des Fingers werden zur Positionierung des ausgeschnittenen Teils verwendet. Für die Positionierung in seitlicher Richtung wird eine anhand der Umrissinformationen erhaltene Fingerspitze 110 verwendet, und es wird beispielsweise ein Ort, an dem die Fingerspitze 110 mit dem rechten Rand des ausgeschnittenen Bilds übereinstimmt, ausgewählt. Als nächstes wird für die Positionierung in vertikaler Richtung die Mittelachse 108 des Fingers unter Verwendung des oberen und des unteren Umrisses des Fingers bestimmt, und es wird eine Position ausgewählt, an der die Mittelachse 108 durch das Zentrum des ausgeschnittenen Bilds hindurchläuft. Die Positionierung auf diese Weise ergibt ein ausgeschnittenes Bild 114. Für dieses ausgeschnittene Bild 114 wird derselbe Teil des Fingers jedes Mal dann ausgeschnitten, unabhängig davon, in welchen Ort in dem Bild 100 der Finger 20 abgebildet wird, was eine Normierung des Fingerorts bedeutet.
  • 13 ist ein Flussdiagramm, das den Prozess der Verfolgung des Blutgefäßes in dem ausgeschnittenen Fingerbild zeigt. Ein durch eine CCD-Kamera aufgenommenes Fingerbild zeigt nicht klar ein für die Personenerkennung benötigtes Venenmuster. Das erfasste Bild enthält viele Informationen, die für die Erkennung nicht notwendig sind, wie Hintergrundrauschen, unregelmäßige Formen infolge der ungleichmäßigen Dicke des Fingerknochens und -muskels und Intensitätsschwankungen. Daher ist es für die Verwendung eines solchen Bilds für die Personenerkennung notwendig, nur ein Venenmuster aus dem Bild zu entnehmen oder das Venenmuster hervorzuheben. Ein Fingerbild ergibt sich durch das Erfassen des von dem Finger durchgelassenen Lichts. Weil das durchgelassene Licht eine von Hämoglobin in dem Blut absorbierbare Wellenlänge aufweist, nimmt der Blutgefäßteil eine dunkel leuchtende Intensität an. Andererseits leckt helles Licht an Gelenkteilen heraus. Daher variiert die Leuchtintensität des Hintergrunds erheblich von einem Raumteil zu einem anderen, so dass das Blutgefäß lediglich durch Hervorheben der Kanten nicht hervorgehoben werden kann. In einem schmal lokalisierten Raumbereich ist der Blutgefäßteil dunkler als seine Umgebung. Daher ist es sehr wahrscheinlich, dass die Ortskurve einer kontinuierlichen Verschiebung von einem bestimmten Ort ein Blutgefäß darstellt. Gewöhnlich existiert ein Blutgefäß nicht an sich, sondern es gibt mehrere Blutgefäße, deren Anzahl und Längen nicht vorab bekannt sein können. Gemäß dieser Ausführungsform der Erfindung können daher viele Ortskurven verschiedener Längen an vielen verschiedenen Orten herausgegriffen werden, und sie werden einander überlagert, um ein einziges Blutgefäßmuster in einem statistischen Prozess hervorzuheben.
  • Nach diesem Prinzip wurden Blutgefäße in der folgenden Weise verfolgt. Zuerst wurde zum Aufzeichnen der Geschichte einer Blutgefäßverfolgung eine Ergebniswerttabelle präpariert, die die gleiche Größe wie das Bild hatte, und jedes Kästchen in der Tabelle wurde zu 0 (300) initialisiert. In einer Blutgefäßverfolgungsschleife (302), die so viele (j) Male wie für das Hervorheben des ganzen Blutgefäßmusters nötig ausgeführt wurde, wird zuerst der anfängliche Ort des Verfolgungspunkts für eine einzige Runde der Blutgefäßverfolgung durch eine Zufallszahl (304) bestimmt. Falls der anfängliche Ort jedoch im Hintergrund ausgewählt wird, ist es an der Fingerspitze oder der Fingerwurzel oder in der Nähe des Fingerumrisses nicht möglich, Blutgefäße richtig zu verfolgen. Daher wird der anfängliche Ort an anderer Stelle festgelegt, indem Informationen über den Fingerumriss verwendet werden.
  • Ferner würde die Anordnung des anfänglichen Orts an einem Blutgefäß das Verfolgen von Blutgefäßen erleichtern. Dementsprechend werden mehrere Kandidaten für den anfänglichen Ort ausgewählt, und das Pixel, das unter ihnen die geringste Leuchtintensität aufweist, wird als der anfängliche Ort bestimmt. Falls der anfängliche Ort jedoch stets nach dieser Bedingung bestimmt wird, wird es schwierig, Blutgefäße in einem hellen Teil zu verfolgen. Daher werden Pixel, die die geringste Leuchtintensität unter mehreren Kandidaten für den anfänglichen Ort aufweisen, nicht immer als der anfängliche Ort ausgewählt, sondern ein Pixel, das die geringste Leuchtintensität aufweist, wird mit einer bestimmten Wahrscheinlichkeit als der anfängliche Ort ausgewählt. Diese Wahrscheinlichkeit wird durch eine Zufallszahl bestimmt. Als nächstes wird die Richtung bestimmt, in der es leichter ist, diesen Verfolgungspunkt zu verschieben (306). Diese Zuweisung wird für die Bestimmung eines verfolgbaren Punkts verwendet, wie nachstehend erklärt wird. Als ein Beispiel des Verfahrens für diese Bestimmung wird der Punkt durch eine Zufallszahl bestimmt, um eine Eigenschaft zur Verfügung stehen zu haben, die ein einfaches Verschieben nach rechts oder nach links und nach oben oder nach links ermöglicht. Dann wird die "Länge" der Verfolgung des Verfolgungspunkts bestimmt (308), und ihr Wert wird gleichzeitig als Anfangswert des Verfolgungspunkts festgelegt. Die Verfolgung wird unterbrochen, wenn die Verfolgung für eine durch diese Länge festgelegte Strecke vorgenommen wurde. Demgemäß wird die Dauer der Verfolgung gleich der Länge des Verfolgungspunkts gesetzt, und die Länge ist erschöpft, wenn jedes Pixel verfolgt wurde. Die Verfolgung wird beendet, wenn die Länge vollständig erschöpft ist. Diese Länge wird unter Verwendung einer Zufallszahl bestimmt.
  • Dann wird dieser Verfolgungspunkt verschoben. Zu Beginn wird ein Punkt bestimmt, zu dem der Verfolgungspunkt als nächstes verschoben werden kann (310). Während die meisten Blutgefäße in Längsrichtung des Fingers verlaufen, führt das Ausrichten der Verschiebungsrichtung des Verfolgungspunkts mit der Verlaufsrichtung der Blutgefäße zu einer verstärkten Hervorhebung der Blutgefäße. Daher wird die Verschiebungstendenz des Verfolgungspunkts gesteuert, indem wählbaren Kandidaten für das Ziel der nächsten Verschiebung eine gewisse Tendenz gegeben wird.
  • Als ein Beispiel der Verschiebungstendenz werden zum Erleichtern der Verschiebung in der rechten und der linken längeren Achsenrichtung bei einer Wahrscheinlichkeit von 50 % drei Umgebungen auf der rechten oder der linken Seite als verfolgbare Punkte und beispielsweise 30 % von den restlichen 50 % ausgewählt, und drei Umgebungen darüber oder darunter werden als verfolgbare Punkte ausgewählt, um das Verschieben in der kürzeren Achsenrichtung des Fingers zu erleichtern. Für den Rest werden acht Umgebungen als verfolgbare Punkte ausgewählt. In jedem Fall ist jedoch keine Verschiebung von der bisher verfolgten Ortskurve oder außerhalb des Fingers zulässig. Falls bei der Auswahl von Verfolgungspunkten auf diese Weise kein verfolgbarer Punkt gefunden werden kann (312), wird die Verfolgung mit dem aktuellen Verfolgungspunkt beendet.
  • Dann wird der Verfolgungspunkt zu dem Pixel verschoben, das von den verfolgbaren Punkten die geringste Leuchtintensität hat (314). Dann wird der aktuelle Ort als Ortskurveninformationen registriert oder aktualisiert (316), so dass der aktuelle Verfolgungspunkt nicht wieder die Ortskurve verfolgen kann, die er bereits verfolgt hat. An diesem Punkt wird der Ergebniswert an der Position in der Ergebniswerttabelle, die den Koordinaten des Pixels entspricht, hochgezählt (318). In diesem Fall werden beispielsweise fünf Punkte addiert. Weiter wird die Länge, d.h. die Verfolgungslänge des Verfolgungspunkts, um eins heruntergezählt (320). Es wird dann beurteilt, ob die Verfolgungspunktlänge null ist (322). Falls dies nicht der Fall ist, kehrt der Prozess zur Bestimmung verfolgbarer Punkte zurück (310), und das Addieren von Ergebniswertpunkten und das Aktualisieren von Ortskurveninformationen werden wiederholt. Wenn die Länge vollständig erschöpft wurde, werden Informationen über die verfolgten Ortskurven initialisiert (324), um die Verfolgung mit dem aktuellen Verfolgungspunkt abzuschließen. Die Ausführung eines solchen Prozesses der Blutgefäßverfolgung wird viele Male wiederholt. Nach dem Abschluss dieser Wiederholung sind für Pixel, die mit einer größeren Häufigkeit verfolgt wurden, d.h. Teile, deren Wahrscheinlichkeit, dass sie Blutgefäße sind, größer ist, die diesen Positionen entsprechenden Ergebniswerte in der Ergebniswerttabelle höher. Umgekehrt ist es wahrscheinlicher, dass Orte mit niedrigeren Ergebniswerten keine Blutgefäße sind. Daher erscheinen Venenmuster selbst in dieser Ergebniswerttabelle. Daher würde sich beim Erfassen dieser Ergebniswerttabelle als ein Bild ein Bild ergeben, bei dem nur ein Venenmuster herausgegriffen wird oder mehrere Venenmuster herausgegriffen werden.
  • Um ein auf diese Weise erfasstes Venenmuster in eine Form zu überführen, die für den Vergleich zweckmäßiger ist, werden Spalten in der Ergebniswerttabelle entsprechend dem Ergebniszählwert als ein Venenmuster klassifiziert. Hier werden sie beispielsweise in vier Kategorien klassifiziert (328). Zuerst wird angenommen, dass kein Blutgefäß an Pixelorten mit niedrigen Ergebniswerten vorhanden ist. Es wird angenommen, dass Pixelorte, die hohe Ergebniswerte aufweisen, sehr wahrscheinlich ein Blutgefäß darstellen. Pixelorte, die mittlere Ergebniswerte aufweisen, werden als zweifelhafte Bereiche angesehen, die ein Blutgefäß darstellen können, was jedoch nicht sicher ist. Pixel, die sich außerhalb des Fingerumrisses befinden, werden als zum Hintergrund gehörend angenommen. Durch Vergleichen dieser vier Kategorien mit Leuchtintensitäten wird ein Bild eines Venenmusters erfasst.
  • Schließlich wurden die Blutgefäßbereiche und zweifelhaften Bereiche einer Ausdehnung unterzogen (330), um die Leerräume von Pixeln auszufüllen, welche der Verfolgung entkommen sind. Die Ausdehnung wurde ausgeführt, indem in Bezug auf alle Pixel, die in dem Bild vorhanden sind, acht Umgebungen von Pixeln in den Blutgefäßbereichen und zweifelhaften Bereichen geprüft wurden und, falls irgendein Nicht-Blutgefäßbereich vorhanden ist, in dem die Anzahl der Pixel vier oder kleiner ist, dieser Nicht-Blutgefäßbereich in einen zweifelhaften Bereich umgewandelt wird.
  • Durch die vorstehend erwähnte Prozedur wird die Ergebniswerttabelle in ein Venenmusterbild umgewandelt und gleichzeitig in eine Form umgewandelt, die für die Verwendung beim Vergleichen zweckmäßiger ist. 14 ist ein Flussdiagramm, in dem ein Beispiel einer Technik zum Beurteilen, ob ein durch das vorstehend beschriebene Verfahren erfasstes Venenmuster mit einem registrierten Venenmuster identisch ist, dargestellt ist. Als ein Algorithmus zum Vergleichen zweier Bilder wurde ein sequenzieller Ähnlichkeitserfassungsalgorithmus (SSDA) verwendet. Dies ist eine Technik, bei der die Eigenschaft, dass Nichtübereinstimmungen monoton zunehmen, verwendet wird, um die Berechnung an einem Punkt, der eine bestimmte Schwelle überschritten hat, abzubrechen.
  • Zu Beginn wird eine Initialisierung (400) in verschiedenen Aspekten ausgeführt. Dann wird die Größe von einem der zwei Venenmusterbilder verringert, indem Pixel am Umfang des Bilds ausgeschnitten werden (402). Dann werden diese beiden Bilder einander überlagert, wobei ihre mittleren Teile ausgerichtet werden, und die Leuchtintensitäten von jedem Paar übereinander gelegter Pixel werden verglichen (404). Falls dann ein Pixel, das sehr wahrscheinlich ein Blutgefäß darstellt, ein Pixel überlagert, bei dem es sehr unwahrscheinlich ist, dass es dies tut, wird ausgesagt, dass diese Pixel nicht übereinstimmen. Die Anzahl dieser nicht übereinstimmenden Pixel wird für die Gesamtbilder gezählt, wenngleich Pixel in dem größeren Bild, die in dem kleineren Bild keine Gegenstücke haben, ignoriert werden. Die Anzahl der Nichtübereinstimmungen zu dieser Zeit wird als der Anfangswert der kleinsten Anzahl von Nichtübereinstimmungen angesehen. Dann werden die Bilder um ein Pixel oder einige Pixel zu einer Zeit innerhalb eines Bereichs verschoben, in dem kein Teil des in der Größe verringerten Bilds aus dem größeren Bild vorsteht (n Pixel nach oben, nach unten, nach rechts und nach links vom Zentrum der Bilder), und die Anzahl der Nichtübereinstimmungen wird an jedem verschobenen Ort gezählt. Während in diesem Prozess die Anzahl der Nichtübereinstimmungen in den Gesamtbildern in ihrem aktuellen Zustand der Überlagerungsposition Pixel für Pixel gezählt wird (410), wird das Zählen unterbrochen (412), falls die aktuelle kleinste Anzahl der Nichtübereinstimmungen beim Zählen von Nichtübereinstimmungen überschritten wurde, weil keine kleinere Anzahl von Nichtübereinstimmungen erhalten werden kann. Falls die aktuelle Anzahl von Nichtübereinstimmungen nicht die kleinste Anzahl der Nichtübereinstimmungen überschreitet, überschreibt die kleinste Anzahl von Nichtübereinstimmungen in der Vergangenheit die aktuelle Anzahl von Nichtübereinstimmungen (416). Nachdem die Bilder einander in dem gesamten Bereich überlagert wurden, ist die kleinste Anzahl der Nichtübereinstimmungen, die schließlich erhalten wird, die Anzahl der Nichtübereinstimmungen zwischen diesen beiden Bildern.
  • Schließlich wird das Nichtübereinstimmungsverhältnis anhand dieses Ergebnisses berechnet. Zuerst wird die Summe der Anzahl der Pixel, welche sehr wahrscheinlich ein Blutgefäß in den beiden Bildern darstellen, berechnet (420). Für das größere Bild werden jedoch n Pixel im Umfangsbereich nicht berücksichtigt. Durch die Verwendung dieses Ergebnisses und der Anzahl der Nichtübereinstimmungen kann das Nichtübereinstimmungsverhältnis zwischen den zwei Venenmustern berechnet werden (422). Hier ist das Nichtübereinstimmungsverhältnis als der Quotient von (Anzahl der Nichtübereinstimmungen)/(Gesamtzahl der Pixel, die sehr wahrscheinlich ein Blutgefäß in den beiden Bildern darstellen) definiert. Falls die zwei Venenmuster gleich sind, ist das Nichtübereinstimmungsverhältnis entweder null oder sehr klein. Falls die Venenmuster jedoch verschieden sind, kann das Nichtübereinstimmungsverhältnis sehr hoch sein. Falls dieser Wert kleiner als ein bestimmter Schwellenwert ist, wird die die Erkennung beanspruchende Person als die berechtigte Person beurteilt, oder falls er höher ist, wird geurteilt, dass sie nicht diese Person ist.
  • 15 ist ein Flussdiagramm, in dem ein Beispiel einer anderen Technik zum Ausführen eines Vergleichs in einem Fall dargestellt ist, in dem das Nichtübereinstimmungsverhältnis entsprechend dem vorstehend beschriebenen Vergleichsverfahren nicht bestimmen kann, ob die Person die berechtigte Person ist. Eine Technik zum Berechnen von Nichtübereinstimmungen in ganzen Bildern kann in vielen Fällen eine Personenerkennung erreichen. Es gibt jedoch einige zweifelhafte Daten um den Schwellenwert. Dann können Daten um den Schwellenwert herum durch ein anderes Vergleichsverfahren beurteilt werden, und es ist wahrscheinlich, dass die Gesamtgenauigkeit der Personenerkennung erhöht wird.
  • Ein lokaler Vergleich wird in der folgenden Weise erreicht. Eines der zwei verglichenen Bilder wird in m (m ≤ 2) Teilbereiche unterteilt (502). In jedem der Teilbereiche wird ein Vergleich mit dem anderen Bild noch einmal ausgeführt (506). Hier wird einfach die Anzahl der Pixel, für die Gegenstücke gefunden wurden, gezählt, bzw. es werden die gleichen Leuchtintensitäten gezählt. Der Ort, an dem die größte Anzahl übereinstimmender Pixel gefunden werden, wird als der übereinstimmende Ort angesehen. Der Bereich der Verschiebung wird vorab beschränkt, so dass eine zufällige Übereinstimmung mit einem offensichtlich unmöglichen Ort nicht auftreten kann. Dann werden Ortsinformationen über den am besten übereinstimmenden Teilbereich erfasst (508). Auf diese Weise wird das Ausmaß der Abweichung von der Übereinstimmung in jedem Teilbereich von dem anfänglichen Ort in Form eines zweidimensionalen Vektors festgehalten. Nach Abschluss des Vergleichs für jeden Teilbereich werden Informationen über m übereinstimmende Orte in einer Ebene (512) aufgetragen, und es wird der Konzentrationsgrad von Punkten beurteilt. Falls diese Punkte dicht konzentriert sind, bedeutet dies eine enge Korrelation zwischen den zwei Bildern, oder es ist umgekehrt, falls sie spärlich sind, fast keine Korrelation feststellbar. Für die Beurteilung des Konzentrationsgrads wird ein Gewicht p zu jedem aufgetragenen Punkt addiert und ein Wert, der um Δp kleiner ist, je Abweichungspixel von diesem Punkt addiert (514). Größere Werte treten in der Ebene auf, in der die aufgetragenen Punkte konzentriert sind, weil das Gewicht wiederholt addiert wird. Falls die übereinstimmenden Orte in allen m Teilbereichen gleich sind, ist der Maximalwert des addierten Gewichts m * p. Falls umgekehrt die übereinstimmenden Orte spärlich sind, ist der maximale Beurteilungswert p. Weil eine zufällige Überlappung übereinstimmender Orte auftreten kann, kann der maximale Beurteilungswert selbst zwischen Bildern, zwischen denen keine Korrelation vorhanden ist, größer als p sein. Ergebniswerte werden auf diese Weise in der Ebene zugewiesen, und es wird der größte Ergebniswert gesucht (516). Dieser Ergebniswert stellt die Korrelation zwischen den beiden Venenmustern dar. Falls dieser Zählwert hoch ist, ist es sehr wahrscheinlich, dass die die Erkennung beanspruchende Person die berechtigte Person ist, oder falls der Zählwert umgekehrt niedrig ist, ist es sehr wahrscheinlich, dass die beanspruchende Person eine andere Person ist. Es kann jedoch durch zufälliges Übereinstimmen von Orten ein hohes Korrelationsniveau geben. Dann ist es sehr wahrscheinlich, dass eine unberechtigte Person mit der berechtigten verwechselt wird. Aus diesem Grund wird, falls es innerhalb eines Kreises mit einem bestimmten Radius von dem Ort, an dem der maximale Beurteilungswert auftritt, nur wenige aufgetragene Punkte gibt, der hohe Beurteilungswert als zufällig beurteilt (518), und die beanspruchende Person wird als eine nicht berechtigte Person beurteilt (520). 16 zeigt das Ergebnis der Funktionsweisebeurteilung gemäß der vorliegenden Erfindung und derjenigen durch ein anderes Verfahren. Das letztgenannte Verfahren unterscheidet sich von der Erfindung in dem Prozess von der Aufnahme des Fingerbilds bis zum Ende der Erkennung. Durch dieses Verfahren wird das aufgenommene Bild gleichmäßig gefiltert, um das Venenmuster hervorzuheben, es wird eine zweidimensionale Faltungsberechnung auf eine registrierte Schablone und das Bild angewendet, und die Schärfe der Spitze in kurzer Achsenrichtung des Fingers wird beurteilt. Bei der Funktionsweisebeurteilung wurden vier Bilder des fünften Fingers von 678 Personen aufgenommen, von denen eines als die registrierte Schablone angenommen wurde, und die Fingerbilder der berechtigten Person und der anderen wurden verglichen. Der Vergleich wurde ausgeführt, indem jede Kombination der registrierten Schablone von jeder Person mit dem Venenmuster der berechtigten Person und von anderen versucht wurde. Ferner erfolgte der Vergleich auch zwischen einem Fingerbild, das nicht die registrierte Schablone war, und der registrierten Schablone derselben Person.
  • Als ein Ergebnis des Vergleichs werden die falsche Ablehnungsrate (FRR), d.h. die Rate des Verwechselns der berechtigten Person mit einer anderen Person, und die falsche Akzeptanzrate (FAR), d.h. die Rate des Akzeptierens einer unberechtigten Person als die berechtigte Person, bestimmt. Hier wird als Indikator der Funktionsweisebeurteilung die Beziehung zwischen FRR und FAR verwendet. Das Ergebnis der vergleichenden Funktionsweisebeurteilung, wobei beim Vergleichen der registrierten Schablonen und anderer Bilder derselben Personen nur jeweils ein anderes Bild verwendet wurde, ist bei (a) aufgelistet. Je kleiner die FRR und die FAR sind, desto besser, es zeigt sich jedoch, dass die FRR und die FAR gemäß der Erfindung bereits etwa 1/10 der jeweiligen Raten sind, die sich aus dem Vergleich durch das andere Verfahren ergeben. Sogar noch bessere Ergebnisse wurden erhalten, wenn auch ein lokaler Vergleich ausgeführt wurde. Das Ergebnis der vergleichenden Funktionsweisebeurteilung, wobei beim Vergleichen der registrierten Schablonen und anderer Bilder derselben Personen das Bild ausgewählt wurde, das in jedem Fall von drei anderen Bildern das beste Ergebnis liefert, ist bei (b) aufgelistet. Wenngleich es bei diesem alternativen Verfahren noch Daten gibt, die keine korrekte Unterscheidung zwischen der berechtigten und nicht berechtigten Personen ermöglichen, kann die Technik gemäß der Erfindung die berechtigte Person noch richtig von anderen unterscheiden. Diese Ergebnisse unterstreichen die erheblichen Vorteile der Erfindung.
  • Gemäß der vorliegenden Erfindung ist eine Personenerkennung unter Verwendung von Merkmalen innerhalb des menschlichen Körpers möglich, ohne dass ein körperlicher Kontakt mit dem Erkennungsgerät notwendig wäre, so dass sie auf einen geringen psychologischen Widerstand von der zu erkennenden Person trifft und sich nur ein geringes Betrugsrisiko ergibt. Trotz der Positionsabweichung, die dem Nichtvorhandensein von Kontakt und der Verwendung unklarer Bilder eigen ist, wird eine Personenerkennung mit hoher Genauigkeit ermöglicht. Liste der Bezugssymbole
    1 Fingervenenmuster-Eingabeschnittstelle
    2 Lichtquelle
    3 optisches Filter
    4 CCD-Kamera
    5 Bilderfassungsplatine
    6 Computer
    7 Schnittstelle
    8 Speicher
    9 CPU
    10 äußerer Speicher
    20 Finger
    22 Fingereinlass
    30 abgeschrägte Fingervenenmuster-Eingabeschnittstelle
    32 Fingervenenmuster-Eingabeschnittstelle mit einem
    seitlich offenen Fingereinlass
    33 Wand
    34 Fingervenenmuster-Eingabeschnittstelle mit einem an der
    Wand offenen Fingereinlass
    36 Fingervenenmustereingabe mit einem Fingereinlass, der
    ein bogenförmiges inneres Ende hat
    38 Polster
    40 die Erkennung beanspruchende Person
    42 automatische Tür
    43 PIN-Eingabeschlüssel
    44 Fingerabdruck-Eingabeschnittstelle
    46 Iris-Bildaufnahmekamera
    48 Gesichts-Bildaufnahmekamera
    50 Handschrift-Eingabestift
    52 Handschrift-Eingabetablett
    54 Mikrofon
    60 IC-Karte
    62 IC-Kartenleser
    100 Fingerbild
    104 Verfolgungspunkt
    106 genäherte gerade Linie des oberen Umrisses des Fingers
    108 Mittelachse des Fingers
    110 Fingerspitze
    112 Zentrum des ausgeschnittenen Fingerbilds
    114 ausgeschnittenes Fingerbild

Claims (11)

  1. Personenerkennungsgerät mit einer Schnittstelle (1), die eine Lichtquelle (2) und eine Kamera (4) zum Erfassen von einen Finger durchsetzendem Licht zur Erzeugung eines Bildes aufweist, und einer Bildverarbeitungseinheit zum Extrahieren eines Blutgefäßmusters aus dem Bild und Vergleichen dieses Musters mit einem registrierten Blutgefäßmuster, dadurch gekennzeichnet, daß die Schnittstelle (1) einen schlitzförmigen Spalt (22) zur Aufnahme mindestens eines Fingers aufweist und die Lichtquelle und die Kamera (4) einander gegenüber mit dem dazwischen befindlichen schlitzförmigen Spalt (22) angeordnet sind, wobei der schlitzförmige Spalt (22) eine Hauptöffnung und zwei endseitige Öffnungen aufweist.
  2. Gerät nach Anspruch 1, wobei der schlitzförmige Spalt (22) eine hintere Fläche aufweist, die im wesentlichen senkrecht zur Längsrichtung des mindestens einen eingeführten Fingers verläuft.
  3. Gerät nach Anspruch 1 oder 2, wobei die Form des schlitzförmigen Spalts (22) mit der Gestalt des mindestens einen Fingers nicht übereinstimmt.
  4. Gerät nach einem der Ansprüche 1 bis 3, wobei der schlitzförmige Spalt (22) der Schnittstelle (1) derart angeordnet ist, daß sich der mindestens eine Finger durch eine Bewegung einführen läßt, deren Zentrum an der Schulter, dem Ellbogen oder dem Handgelenk der Person liegt.
  5. Gerät nach einem der Ansprüche 1 bis 4, wobei die hintere Fläche des schlitzförmigen Spalts (22) die Gestalt eines Bogens hat, der einer Bewegungsbahn der menschlichen Hand folgt.
  6. Gerät nach einem der Ansprüche 1 bis 5, wobei der schlitzförmige Spalt (22) in einer zum Boden senkrechten Richtung ausgebildet ist.
  7. Gerät nach einem der vorhergehenden Ansprüche, wobei die Bildverarbeitungseinheit eine Drehung in einer Bildebene korrigiert, wenn der mindestens eine Finger in die Schnittstelle (1) eingeführt wird, und ein Venenmuster in dem aufgenommenen Bild extrahiert, das zur Erkennung einer Drehkorrektur unterworfen wurde.
  8. Gerät nach einem der Ansprüche 1 bis 7, wobei das aufgezeichnete Blutgefäßmuster in einer von der zu erkennenden Person mitgeführten IC-Karte (60) aufgezeichnet ist, wobei die IC-Karte (60) zum Zeitpunkt der Personenerkennung in das Personenerkennungsgerät eingeführt wird.
  9. Gerät nach einem der Ansprüche 1 bis 8, wobei aus einer von der Person mitgeführten IC-Karte (60) Personenerkennungsinformationen ausgelesen werden und ein diesen Informationen entsprechendes registriertes Blutgefäßmuster in die Bildverarbeitungseinheit gelesen wird.
  10. Gerät nach einem der Ansprüche 1 bis 9, wobei die Bildverarbeitungseinheit als registriertes Blutgefäßmuster ein Venenmuster mehrerer Finger verwendet.
  11. Gerät nach einem der vorhergehenden Ansprüche mit einem Speicher (10) zur Speicherung des registrierten Blutgefäßmusters.
DE60129388T 2000-09-06 2001-08-03 Personenerkennungsgerät Expired - Lifetime DE60129388T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000274987 2000-09-06
JP2000274987A JP3558025B2 (ja) 2000-09-06 2000-09-06 個人認証装置及び方法

Publications (2)

Publication Number Publication Date
DE60129388D1 DE60129388D1 (de) 2007-08-30
DE60129388T2 true DE60129388T2 (de) 2008-04-03

Family

ID=18760676

Family Applications (2)

Application Number Title Priority Date Filing Date
DE60135686T Expired - Lifetime DE60135686D1 (de) 2000-09-06 2001-08-03 Vorrichtung und Verfahren zur Personenidentifizierung
DE60129388T Expired - Lifetime DE60129388T2 (de) 2000-09-06 2001-08-03 Personenerkennungsgerät

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE60135686T Expired - Lifetime DE60135686D1 (de) 2000-09-06 2001-08-03 Vorrichtung und Verfahren zur Personenidentifizierung

Country Status (5)

Country Link
US (4) US6993160B2 (de)
EP (7) EP2309423B1 (de)
JP (1) JP3558025B2 (de)
KR (9) KR100730257B1 (de)
DE (2) DE60135686D1 (de)

Families Citing this family (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7627145B2 (en) * 2000-09-06 2009-12-01 Hitachi, Ltd. Personal identification device and method
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置
US8384885B2 (en) 2000-09-20 2013-02-26 Hitachi, Ltd. Personal identification system
WO2003003279A1 (en) * 2001-06-27 2003-01-09 Activcard Ireland, Limited Method and system for transforming an image of a biological surface
JP4039039B2 (ja) * 2001-11-08 2008-01-30 ソニー株式会社 個人認証装置
EP1312519B1 (de) * 2001-11-14 2008-02-27 Hitachi, Ltd. System zum Starten eines Motors unter Verwendung von biometrischen Informationen
CN1662931A (zh) 2002-05-09 2005-08-31 索尼株式会社 活组织模式检测方法、活组织模式检测设备、生物统计学认证方法和生物统计学认证设备
JP4499341B2 (ja) * 2002-05-09 2010-07-07 ソニー株式会社 生体認証装置及び生体認証方法
KR100472562B1 (ko) * 2002-07-25 2005-03-14 신성복 손가락 혈관패턴을 이용한 신원확인시스템과 방법 및 그방법에 대한 컴퓨터 프로그램 소스를 저장한 기록매체
JP4387643B2 (ja) * 2002-07-31 2009-12-16 富士通株式会社 個人認識機能付き処理装置
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
WO2004021884A1 (ja) * 2002-09-03 2004-03-18 Fujitsu Limited 個人認識装置
JP3972779B2 (ja) 2002-09-20 2007-09-05 株式会社日立製作所 個人認証装置
JP3770241B2 (ja) 2003-03-04 2006-04-26 株式会社日立製作所 個人認証装置及び個人認証方法
US8171304B2 (en) * 2003-05-15 2012-05-01 Activcard Ireland Limited Method, system and computer program product for multiple biometric template screening
JP3994930B2 (ja) * 2003-06-13 2007-10-24 ソニー株式会社 画像照合装置、および画像照合方法
DE60327664D1 (de) * 2003-08-13 2009-06-25 Hitachi Ltd Persönliche identifikationseinrichtung
JP4207717B2 (ja) 2003-08-26 2009-01-14 株式会社日立製作所 個人認証装置
SG127704A1 (en) * 2003-09-12 2006-12-29 Hitachi Asia Ltd Data capture system and method
JP2005151282A (ja) * 2003-11-18 2005-06-09 Fuji Xerox Co Ltd 画像処理装置、画像処理方法、およびプログラム
JP4547604B2 (ja) * 2003-12-24 2010-09-22 ソニー株式会社 認証情報生成装置及び認証情報装置
ES2332228T3 (es) * 2004-01-23 2010-01-29 Tbs Holding Ag Dispositivo y procedimiento para el reconocimiento de las rayas de los dedos.
CN100469311C (zh) * 2004-03-29 2009-03-18 松下电器产业株式会社 用于活体信息测定的光学元件及采用此元件的活体信息测定装置
US7844083B2 (en) * 2004-06-18 2010-11-30 Kyushu Institute Of Technology Method for acquiring personal identification data, personal identification method, apparatus for acquiring personal identification data, and personal identification apparatus
JP4546169B2 (ja) * 2004-06-28 2010-09-15 富士通株式会社 手のひら認証用撮像装置
JP4556111B2 (ja) * 2004-09-02 2010-10-06 ソニー株式会社 情報処理装置
JP2006099493A (ja) * 2004-09-30 2006-04-13 Hitachi Omron Terminal Solutions Corp 撮像装置又は個人認証装置
US7693314B2 (en) * 2004-10-13 2010-04-06 Authentec, Inc. Finger sensing device for navigation and related methods
JP2006141589A (ja) * 2004-11-18 2006-06-08 Shigematsu:Kk 個人認証装置及び個人認証方法
US7869627B2 (en) * 2004-12-07 2011-01-11 Aoptix Technologies, Inc. Post processing of iris images to increase image quality
US7418115B2 (en) * 2004-12-07 2008-08-26 Aoptix Technologies, Inc. Iris imaging using reflection from the eye
WO2006067226A2 (en) * 2004-12-22 2006-06-29 Dilab I Lund Ab Biometric identification of laboratory animals
US20060165261A1 (en) * 2005-01-24 2006-07-27 Pira Robert K Structure for supporting a human hand in an operating environment
JP4221385B2 (ja) * 2005-02-21 2009-02-12 日立オムロンターミナルソリューションズ株式会社 生体認証装置、端末装置及び自動取引装置
JP2006338547A (ja) * 2005-06-03 2006-12-14 Sony Corp インストールシステム、インストール装置及びインストール方法
JP4095659B2 (ja) * 2005-06-13 2008-06-04 株式会社日立製作所 静脈認証装置
JP5001535B2 (ja) * 2005-07-04 2012-08-15 三菱電機株式会社 個人認証装置
WO2007022379A2 (en) * 2005-08-17 2007-02-22 Ultra-Scan Corporation Use of papilla mapping to determine a friction-ridge surface
JP4692174B2 (ja) 2005-09-14 2011-06-01 株式会社日立製作所 個人認証装置及びドア開閉システム
JP4465619B2 (ja) 2005-10-31 2010-05-19 ソニー株式会社 登録装置、照合装置、画像補正方法及びプログラム
KR100760033B1 (ko) 2005-12-28 2007-09-20 가부시끼가이샤 히다치 세이사꾸쇼 개인 인증장치
JP2007206991A (ja) * 2006-02-02 2007-08-16 Hitachi Ltd 生体情報処理装置及び生体情報処理プログラム
JP4038777B2 (ja) * 2006-02-28 2008-01-30 ソニー株式会社 登録装置及び認証装置
JP4566930B2 (ja) * 2006-03-03 2010-10-20 富士通株式会社 撮像装置
JP4799216B2 (ja) * 2006-03-03 2011-10-26 富士通株式会社 距離測定機能を有する撮像装置
JP4804962B2 (ja) * 2006-03-03 2011-11-02 富士通株式会社 撮像装置
JP4566929B2 (ja) * 2006-03-03 2010-10-20 富士通株式会社 撮像装置
JP4676371B2 (ja) * 2006-04-11 2011-04-27 ルネサスエレクトロニクス株式会社 固体撮像装置、撮像方法および撮像システム
DE102006022878B3 (de) * 2006-05-15 2007-09-06 Sartorius Biotech Gmbh Verfahren und Detektionsvorrichtung zur bildgebenden Erfassung einer Probe
JP4617273B2 (ja) * 2006-05-16 2011-01-19 株式会社日立情報制御ソリューションズ 認証ゲート
US7983448B1 (en) * 2006-06-02 2011-07-19 University Of Central Florida Research Foundation, Inc. Self correcting tracking of moving objects in video
JP4834464B2 (ja) * 2006-06-06 2011-12-14 パナソニック株式会社 画像処理方法及び画像処理装置
JP4762805B2 (ja) * 2006-06-29 2011-08-31 富士通株式会社 生体認証方法及び生体認証システム
JP4809155B2 (ja) * 2006-08-02 2011-11-09 株式会社 テクスピアー 手の甲認証システム及び手の甲認証方法
JP4640295B2 (ja) 2006-09-07 2011-03-02 株式会社日立製作所 個人認証装置及び方法
US8737698B2 (en) * 2006-09-19 2014-05-27 University Of Massachusetts Circumferential contact-less line scanning of biometric objects
JP4212614B2 (ja) * 2006-09-25 2009-01-21 株式会社日立製作所 指静脈パターン入力装置
US20080107309A1 (en) * 2006-11-03 2008-05-08 Cerni Consulting, Llc Method and apparatus for biometric identification
JP4845203B2 (ja) * 2006-11-24 2011-12-28 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 生体認証装置およびズレ検出方法
JP5012000B2 (ja) * 2006-12-15 2012-08-29 ソニー株式会社 照合装置、照合方法及びプログラム
US8092021B1 (en) 2007-01-26 2012-01-10 Aoptix Technologies, Inc. On-axis illumination for iris imaging
US8025399B2 (en) * 2007-01-26 2011-09-27 Aoptix Technologies, Inc. Combined iris imager and wavefront sensor
JP4933914B2 (ja) * 2007-02-08 2012-05-16 日立オムロンターミナルソリューションズ株式会社 認証装置
TWI340920B (en) * 2007-02-09 2011-04-21 Egis Technology Inc Biometrics method based on a thermal image of a finger
JP4882794B2 (ja) * 2007-02-26 2012-02-22 ソニー株式会社 画像判定装置、画像判定方法及びプログラム
FR2913788B1 (fr) * 2007-03-14 2009-07-03 Sagem Defense Securite Procede et installation d'identification d'un individu par capture optique d'une image d'une empreinte corporelle
US20090062686A1 (en) * 2007-09-05 2009-03-05 Hyde Roderick A Physiological condition measuring device
US20090060287A1 (en) * 2007-09-05 2009-03-05 Hyde Roderick A Physiological condition measuring device
JP4604074B2 (ja) * 2007-10-09 2010-12-22 日立オートモティブシステムズ株式会社 指静脈認証装置及び方法
JP5151396B2 (ja) 2007-10-29 2013-02-27 株式会社日立製作所 指静脈認証装置
JP2009187520A (ja) * 2008-01-09 2009-08-20 Sony Corp 認証装置、認証方法、登録装置及び登録方法
US8050468B2 (en) * 2008-03-05 2011-11-01 Honeywell International Inc. Fingerprint acquisition system
JP4541427B2 (ja) * 2008-03-25 2010-09-08 富士通株式会社 生体認証装置、生体情報登録装置および生体認証方法
JP5065965B2 (ja) * 2008-03-31 2012-11-07 富士通株式会社 非接触型生体認証装置の生体誘導制御方法及び非接触型生体認証装置
US20090245594A1 (en) * 2008-03-31 2009-10-01 General Electric Company Iris imaging and iris-based identification
KR20090132211A (ko) * 2008-06-20 2009-12-30 주식회사 테크스피어 혈관인식기술을 이용한 출입문 개폐장치
JP5055210B2 (ja) 2008-06-27 2012-10-24 株式会社日立製作所 指静脈認証装置
JP5556663B2 (ja) * 2008-10-10 2014-07-23 日本電気株式会社 照合装置、照合方法、及びプログラム
KR101017798B1 (ko) * 2008-11-03 2011-03-02 서울대학교산학협력단 평균 곡률을 이용하는 지정맥 인증 방법 및 장치
JP5439809B2 (ja) * 2008-12-25 2014-03-12 富士通株式会社 生体認証装置
JP5364925B2 (ja) * 2009-02-27 2013-12-11 現代自動車株式会社 車載機器の入力装置
JP5244654B2 (ja) * 2009-03-04 2013-07-24 日立オムロンターミナルソリューションズ株式会社 指認証装置
US20110007951A1 (en) * 2009-05-11 2011-01-13 University Of Massachusetts Lowell System and method for identification of fingerprints and mapping of blood vessels in a finger
JP2011090620A (ja) * 2009-10-26 2011-05-06 Hitachi Omron Terminal Solutions Corp 生体情報読取ユニット、および個人認証装置
US20110103655A1 (en) * 2009-11-03 2011-05-05 Young Warren G Fundus information processing apparatus and fundus information processing method
US20110115892A1 (en) * 2009-11-13 2011-05-19 VisionBrite Technologies, Inc. Real-time embedded visible spectrum light vision-based human finger detection and tracking method
US8325993B2 (en) * 2009-12-23 2012-12-04 Lockheed Martin Corporation Standoff and mobile fingerprint collection
US8041956B1 (en) * 2010-08-16 2011-10-18 Daon Holdings Limited Method and system for biometric authentication
JP4997305B2 (ja) 2010-03-12 2012-08-08 株式会社日立製作所 指静脈認証装置
US20110316703A1 (en) * 2010-04-29 2011-12-29 Andy Butler System and Method for Ensuring Sanitation Procedures in Restrooms
JP2011243042A (ja) * 2010-05-19 2011-12-01 Nec Corp 生体撮像装置、及び生体撮像方法
JP5433498B2 (ja) * 2010-05-27 2014-03-05 株式会社東芝 暗号処理装置
DE102010017689A1 (de) * 2010-07-01 2012-01-05 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Gerät sowie Verfahren zur Orientierung eines solchen Gerätes
JP5521973B2 (ja) * 2010-10-21 2014-06-18 株式会社日立製作所 個人認証装置及び方法
JP5700524B2 (ja) * 2011-01-12 2015-04-15 公立大学法人首都大学東京 個人認証方法及びシステム
JP5522119B2 (ja) * 2011-05-20 2014-06-18 株式会社日立製作所 血管画像撮影装置
JP5377580B2 (ja) * 2011-06-23 2013-12-25 株式会社 テクスピアー 手の甲の認証端末及び手の甲の認証方法
CN102222229B (zh) * 2011-07-28 2015-12-02 陈庆武 手指静脉图像预处理方法
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
TWI539386B (zh) * 2011-11-21 2016-06-21 Pixart Imaging Inc The use of a variety of physiological information mixed identification of the identity of the system and methods
US9195900B2 (en) * 2011-11-21 2015-11-24 Pixart Imaging Inc. System and method based on hybrid biometric detection
US8380995B1 (en) * 2011-11-29 2013-02-19 Google Inc. Process for login of a computing device with a touchscreen
JP5949912B2 (ja) 2012-05-22 2016-07-13 富士通株式会社 生体情報処理装置、生体情報処理方法及びプログラム
KR101354881B1 (ko) 2012-08-24 2014-02-05 한국오므론전장주식회사 지정맥 인식 장치 및 방법
KR101947538B1 (ko) * 2012-08-28 2019-02-13 가부시끼가이샤 히다치 세이사꾸쇼 인증 장치, 및 인증 방법
FR2997528B1 (fr) * 2012-10-26 2021-10-15 Oberthur Technologies Identification biometrique
CN104756153A (zh) 2012-11-22 2015-07-01 富士通株式会社 信息处理装置、活体部位判定程序和活体部位判定方法
CN103279733A (zh) * 2013-03-19 2013-09-04 陈威霖 可提高辨识成功率的手指静脉辨识装置
JP5982311B2 (ja) 2013-03-22 2016-08-31 株式会社 日立産業制御ソリューションズ 血管画像撮影装置
DE102013208654A1 (de) * 2013-05-10 2014-11-13 Iris-Gmbh Infrared & Intelligent Sensors Sensorsystem und Verfahren zur Aufnahme eines Handvenenmusters
CN103413080A (zh) * 2013-08-20 2013-11-27 苏州跨界软件科技有限公司 一种基于手势的密码保护实现方法
CN103488981A (zh) * 2013-10-16 2014-01-01 无锡优创生物科技有限公司 基于手指血管分布的身份识别系统及方法
KR101561817B1 (ko) 2013-12-05 2015-11-11 주식회사 슈프리마 얼굴과 손 인식을 이용한 생체 인증 장치 및 방법
US9773151B2 (en) 2014-02-06 2017-09-26 University Of Massachusetts System and methods for contactless biometrics-based identification
CN103870808B (zh) * 2014-02-27 2017-01-18 中国船舶重工集团公司第七一〇研究所 一种手指静脉识别方法
CN104097611A (zh) * 2014-07-30 2014-10-15 中山艺展装饰工程有限公司 基于人脸识别技术多重身份验证的汽车防盗系统
CN104217195B (zh) * 2014-08-07 2018-02-23 中国矿业大学 手部静脉立体成像与识别系统
KR20160029191A (ko) 2014-09-04 2016-03-15 동명대학교산학협력단 지정맥 인식을 위한 카메라모듈장치 및 이를 이용한 지정맥 인식 방법
CN104239769B (zh) * 2014-09-18 2017-05-31 北京智慧眼科技股份有限公司 基于手指静脉特征的身份识别方法及系统
CN104615975B (zh) * 2015-01-16 2019-03-29 深圳市维亿魄科技有限公司 移动终端及其静脉识别装置
US9558392B2 (en) * 2015-02-12 2017-01-31 Korecen Co., Ltd. Finger vein authentication system
TWI531982B (zh) * 2015-08-03 2016-05-01 Fast identification of the fingerprint identification sensor
JP2018532211A (ja) * 2015-08-03 2018-11-01 オール イット トップ カンパニー リミテッドAll It Top Co., Ltd. 指静脈と指紋を同時にスキャニングしてユーザ認証を処理するマルチ安全ロック機能を有する金融取引中継システムおよびその処理方法
JPWO2017026446A1 (ja) 2015-08-10 2018-07-05 日本電気株式会社 装着体、認証装置、認証方法およびプログラム
CN105072322A (zh) * 2015-08-12 2015-11-18 成都易思科科技有限公司 基于数字信号处理技术设计的生物特征提取处理系统
CN105184266B (zh) * 2015-09-14 2018-08-24 中国民航大学 一种手指静脉图像识别方法
CN105138890B (zh) * 2015-09-30 2018-11-30 宇龙计算机通信科技(深圳)有限公司 鉴权方法、鉴权装置和终端
CN107851298B (zh) * 2015-12-18 2021-05-07 株式会社日立制作所 生物体认证装置以及系统
CN105427440B (zh) * 2015-12-22 2017-08-29 成都比善科技开发有限公司 一种安全电子锁及开锁方法
CN105608770B (zh) * 2015-12-22 2017-10-27 成都比善科技开发有限公司 一种电子锁及其开锁方法
CN105678331A (zh) * 2016-01-07 2016-06-15 肖小玉 一种高效率的桥墩浇铸模具
CN106127172B (zh) 2016-06-29 2019-08-09 中控智慧科技股份有限公司 一种非接触3d指纹采集的装置及方法
CN106022318A (zh) * 2016-07-04 2016-10-12 深圳市亚略特生物识别科技有限公司 身份验证装置
CN106529468B (zh) * 2016-11-07 2019-03-05 重庆工商大学 一种基于卷积神经网络的手指静脉识别方法及系统
DE102016224679A1 (de) 2016-12-12 2018-06-14 Skf Lubrication Systems Germany Gmbh Schmiermittelapplikator
CN108319887A (zh) * 2017-01-18 2018-07-24 中国移动通信有限公司研究院 一种身份认证的方法和系统
KR101892184B1 (ko) * 2017-02-14 2018-08-29 크루셜텍(주) 다중 생체 인식 장치 및 이를 포함하는 출입 시스템
US10664676B2 (en) * 2017-06-12 2020-05-26 Will Semiconductor (Shanghai) Co. Ltd. Systems and methods for reducing unwanted reflections in display systems incorporating an under display biometric sensor
CN107704822A (zh) * 2017-09-30 2018-02-16 广州智慧城市发展研究院 基于残缺补全的指静脉深层特征提取与匹配方法及系统
CN108010035A (zh) * 2017-11-07 2018-05-08 深圳市金城保密技术有限公司 基于方向谷形检测的指静脉图像分割方法及其系统、终端
JP7230337B2 (ja) 2018-04-02 2023-03-01 富士通株式会社 生体画像処理装置、生体画像処理方法、および生体画像処理プログラム
CN108921143A (zh) * 2018-08-22 2018-11-30 北京慕华信息科技有限公司 一种面部仪态的评估方法及装置
CN110298261B (zh) * 2019-06-06 2021-06-01 Oppo广东移动通信有限公司 静脉识别方法及相关产品
CN110555382A (zh) * 2019-07-31 2019-12-10 浙江理工大学 一种基于深度学习和Wasserstein距离度量的指静脉识别方法
BR102019017389A2 (pt) * 2019-08-21 2021-03-02 Marisa Toyomi Miyazaki transiluminador para mapeamento dos vasos sanguíneos da face
CN111813972B (zh) * 2019-11-18 2021-03-23 广西御云网络科技有限公司 基于大数据服务器的内容管理方法
IT201900025267A1 (it) * 2019-12-23 2021-06-23 Patrizio Campisi Metodo, dispositivo e sistema per il riconoscimento biometrico basato sul tracciato venoso
CN112102209B (zh) * 2020-11-17 2021-02-19 四川圣点世纪科技有限公司 一种异常静脉图像的修复方法及装置
CN115668312A (zh) * 2021-03-19 2023-01-31 东屋世安物联科技(江苏)股份有限公司 手指静脉图像采集装置及其使用方法
CN113076927B (zh) * 2021-04-25 2023-02-14 华南理工大学 基于多源域迁移的指静脉识别方法及系统
CN114373196B (zh) * 2021-12-31 2023-09-19 天津极豪科技有限公司 有效采集区域确定方法、程序产品、存储介质及电子设备

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3699517A (en) * 1970-09-24 1972-10-17 Sylvania Electric Prod Handwriting authentication technique
JPS5510621A (en) 1978-07-07 1980-01-25 Copyer Co Ltd Method and device for discrimination between inside and outside bordering closed curve
ZA80340B (en) * 1979-02-26 1981-03-25 Du Pont Non-electric delay detonator
ZA842972B (en) * 1983-04-27 1984-12-24 Fingermatrix Inc Fingerprint verification method
US4581760A (en) 1983-04-27 1986-04-08 Fingermatrix, Inc. Fingerprint verification method
JPS6029135A (ja) * 1983-07-25 1985-02-14 三菱電機株式会社 個人識別装置
SE440961B (sv) * 1983-12-29 1985-08-26 Ericsson Telefon Ab L M Anordning for att med hjelp av karakteristiska drag hos en persons hand verifiera personens identitet
WO1985004088A1 (en) * 1984-03-20 1985-09-26 Joseph Rice Method and apparatus for the identification of individuals
JPH0754549B2 (ja) * 1984-09-19 1995-06-07 株式会社日立製作所 パターンマッチング用標準パターンの作成方法
US4720869A (en) * 1986-02-18 1988-01-19 International Business Machines Corporation Hand dimension verification
US5067162A (en) * 1986-06-30 1991-11-19 Identix Incorporated Method and apparatus for verifying identity using image correlation
US4821118A (en) * 1986-10-09 1989-04-11 Advanced Identification Systems, Inc. Video image system for personal identification
GB2204971A (en) * 1987-05-19 1988-11-23 Gen Electric Co Plc Transportable security system
JPH01191200A (ja) * 1988-01-26 1989-08-01 Sony Corp 音声認識装置
US4915116A (en) * 1988-07-06 1990-04-10 Misawa Homes Institute Of Research & Development Fingertip pulse wave sensor
US5073949A (en) * 1989-03-16 1991-12-17 Kabushiki Kaisha Toshiba Personal verification apparatus
US5073950A (en) 1989-04-13 1991-12-17 Personnel Identification & Entry Access Control, Inc. Finger profile identification system
US5054098A (en) * 1990-05-21 1991-10-01 Eastman Kodak Company Method of detecting the skew angle of a printed business form
US5224174A (en) * 1990-11-07 1993-06-29 Niagara Technology Incorporated Surface feature mapping using high resolution c-scan ultrasonography
US5335288A (en) * 1992-02-10 1994-08-02 Faulkner Keith W Apparatus and method for biometric identification
JPH07111739B2 (ja) * 1993-03-19 1995-11-29 株式会社エイ・ティ・アール視聴覚機構研究所 画像処理装置
GB9306897D0 (en) 1993-04-01 1993-05-26 British Tech Group Biometric identification of individuals
JP2901221B2 (ja) * 1993-05-12 1999-06-07 シャープ株式会社 指紋入力方法
JPH0721373A (ja) * 1993-06-17 1995-01-24 Asahi Optical Co Ltd 個人識別装置
JPH07171137A (ja) * 1993-11-02 1995-07-11 Hamamatsu Photonics Kk 指紋読み取り装置
GB9323489D0 (en) * 1993-11-08 1994-01-05 Ncr Int Inc Self-service business system
JPH0889501A (ja) * 1994-09-21 1996-04-09 Hitachi Medical Corp 医用画像診断装置
US5793881A (en) * 1995-08-31 1998-08-11 Stiver; John A. Identification system
JP2739856B2 (ja) * 1995-12-18 1998-04-15 日本電気株式会社 指掌紋画像処理装置
JPH09212644A (ja) * 1996-02-07 1997-08-15 Oki Electric Ind Co Ltd 虹彩認識装置および虹彩認識方法
DE19612949C1 (de) 1996-04-01 1997-08-14 Siemens Ag Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner
JPH09330413A (ja) * 1996-06-13 1997-12-22 Hitachi Medical Corp 血管追跡処理方法
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
JP3567651B2 (ja) 1996-11-06 2004-09-22 株式会社日立製作所 生体識別装置
KR100259475B1 (ko) 1997-04-14 2000-06-15 최환수 정맥분포패턴을 이용한 개인식별방법
US5974338A (en) * 1997-04-15 1999-10-26 Toa Medical Electronics Co., Ltd. Non-invasive blood analyzer
ES2140322B1 (es) * 1997-10-28 2000-10-16 Soom Huggenberger Verena Aparato codificador para la validacion de transaciones electronicas utilizando la firma personal mediante huella digital.
US6134340A (en) * 1997-12-22 2000-10-17 Trw Inc. Fingerprint feature correlator
JP3869545B2 (ja) * 1998-01-19 2007-01-17 株式会社日立製作所 指の特徴パターン特徴検出装置及び個人識別装置
JP4126754B2 (ja) 1998-06-11 2008-07-30 株式会社日立製作所 個人特徴パターン検出装置
JP4192292B2 (ja) 1998-06-24 2008-12-10 株式会社日立製作所 個人特徴パターン検出装置
JP3775063B2 (ja) * 1998-07-10 2006-05-17 富士ゼロックス株式会社 個人識別方法および装置
JP4554739B2 (ja) * 1998-10-23 2010-09-29 シスメックス株式会社 無侵襲生体計測装置および無侵襲生体計測方法
JP2000259278A (ja) * 1999-03-12 2000-09-22 Fujitsu Ltd 生体情報を用いて個人認証を行う認証装置および方法
JP2001184507A (ja) 1999-12-24 2001-07-06 Hitachi Ltd 個人認証装置
JP2001273497A (ja) 2000-03-27 2001-10-05 Sanyo Electric Co Ltd 個人識別装置
JP2002032720A (ja) 2000-07-17 2002-01-31 Itou Hisao 非接触icカードを用いた静脈パターン認証装置
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置

Also Published As

Publication number Publication date
KR20020020184A (ko) 2002-03-14
EP2009576A1 (de) 2008-12-31
EP2309423A1 (de) 2011-04-13
KR100790628B1 (ko) 2008-01-02
KR20080108214A (ko) 2008-12-12
KR100730257B1 (ko) 2007-06-20
DE60129388D1 (de) 2007-08-30
KR100919339B1 (ko) 2009-09-25
EP2312493B1 (de) 2012-10-10
KR20050104325A (ko) 2005-11-02
US20060002592A1 (en) 2006-01-05
EP2309423B1 (de) 2012-10-10
EP2009576B1 (de) 2011-10-19
DE60135686D1 (de) 2008-10-16
EP2296103B1 (de) 2012-10-10
KR100919338B1 (ko) 2009-09-25
KR100948707B1 (ko) 2010-03-22
US7599523B2 (en) 2009-10-06
US6993160B2 (en) 2006-01-31
EP1187055B1 (de) 2007-07-18
EP1187055A3 (de) 2004-11-17
KR20080011344A (ko) 2008-02-01
US20080008358A1 (en) 2008-01-10
KR20070097016A (ko) 2007-10-02
KR100914856B1 (ko) 2009-09-02
US20050281442A1 (en) 2005-12-22
KR100850402B1 (ko) 2008-08-04
KR100891058B1 (ko) 2009-03-31
KR20080050379A (ko) 2008-06-05
KR20080108073A (ko) 2008-12-11
EP2312494A1 (de) 2011-04-20
KR20080011345A (ko) 2008-02-01
JP3558025B2 (ja) 2004-08-25
US7280676B2 (en) 2007-10-09
US7266223B2 (en) 2007-09-04
EP2312493A1 (de) 2011-04-20
US20020028004A1 (en) 2002-03-07
JP2002083298A (ja) 2002-03-22
EP1187055A2 (de) 2002-03-13
KR100890484B1 (ko) 2009-03-26
EP1650694B1 (de) 2008-09-03
KR20090045179A (ko) 2009-05-07
EP2312494B1 (de) 2012-10-10
EP2296103A1 (de) 2011-03-16
EP1650694A1 (de) 2006-04-26

Similar Documents

Publication Publication Date Title
DE60129388T2 (de) Personenerkennungsgerät
US7277163B2 (en) Personal identification system
US8670596B2 (en) Personal identification device and method
US8384885B2 (en) Personal identification system
JP2004178606A (ja) 個人認証装置及び方法
KR20080053247A (ko) 화상 처리 장치, 화상 판정 방법 및 프로그램
DE10118485B4 (de) Automatische Identifikation und/oder Verifikation linienhafter Texturen wie Fingerabdrücke
JP2004102993A (ja) 個人認証装置及び方法
JP2004171577A (ja) 個人認証装置及び方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition