WO2001008056A1 - Transaktionsverfahren und dafür geeignete vorrichtungen - Google Patents

Transaktionsverfahren und dafür geeignete vorrichtungen Download PDF

Info

Publication number
WO2001008056A1
WO2001008056A1 PCT/CH1999/000338 CH9900338W WO0108056A1 WO 2001008056 A1 WO2001008056 A1 WO 2001008056A1 CH 9900338 W CH9900338 W CH 9900338W WO 0108056 A1 WO0108056 A1 WO 0108056A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
transaction
data
retina
light
Prior art date
Application number
PCT/CH1999/000338
Other languages
English (en)
French (fr)
Inventor
Eric Lauper
Rudolf Ritter
Original Assignee
Swisscom Mobile Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ES99928997T priority Critical patent/ES2191438T3/es
Priority to PCT/CH1999/000338 priority patent/WO2001008056A1/de
Application filed by Swisscom Mobile Ag filed Critical Swisscom Mobile Ag
Priority to BR9917415-4A priority patent/BR9917415A/pt
Priority to CN99816822A priority patent/CN1361894A/zh
Priority to JP2001513072A priority patent/JP4261102B2/ja
Priority to AU45990/99A priority patent/AU766017B2/en
Priority to CA002378115A priority patent/CA2378115C/en
Priority to EP99928997A priority patent/EP1196881B1/de
Priority to US10/031,340 priority patent/US6973203B1/en
Priority to AT99928997T priority patent/ATE231632T1/de
Priority to DK99928997T priority patent/DK1196881T3/da
Priority to DE59904126T priority patent/DE59904126D1/de
Publication of WO2001008056A1 publication Critical patent/WO2001008056A1/de
Priority to IL147399A priority patent/IL147399A/en
Priority to NO20020200A priority patent/NO319615B1/no
Priority to US11/223,966 priority patent/US7292712B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/36Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
    • G06Q20/367Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes
    • G06Q20/3674Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes involving authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure

Definitions

  • the present invention relates to a transaction method and devices suitable therefor.
  • the present invention relates to a transaction method and devices suitable therefor, in which transaction methods information relating to the identification of a user is linked to an object identification of a transaction object, for example a product or a service, in a transaction document and the transaction document is forwarded to a processing unit.
  • an identification module for example a credit card, a customer card or a SIM card (Subscriber Identification Module), and / or a personal code (password, PIN code) Number).
  • SIM card Subscriber Identification Module
  • PIN code personal code
  • the disadvantage of these methods is that the identification modules can be lost or stolen, so that even if the use of unauthorized persons is made more difficult by the additional personal code, there is still the problem that a user in question only logs in after receiving an Er - can correctly identify the module again.
  • many users find it difficult to carry the ever increasing number of identification modules with them and to remember the associated personal codes.
  • this goal is achieved in particular by the elements of the independent claims. Further advantageous embodiments also emerge from the dependent claims and the description.
  • This object is achieved in particular by the fact that object image data relating to a transaction object, for example a product or a service, are made visible to a user in question, that eye features of the user are determined, while the object image data made visible by the user Users are considered, and that the certain eye features are linked to object data relating to the transaction object and containing at least one object identification in a transaction document, which transaction document can then be forwarded to a processing unit.
  • the advantage of this transaction method is that eye features are used as a biometric identification means and thus the user no longer has to carry conventional identification modules and no additional personal codes have to be impressed.
  • the object image data also allow the user to visualize the transaction object in question, for example in the form of a two- or three-dimensional image, in the form of a graphic, in the form of a written text or by means of a combination of these different forms.
  • the object image data are made visible to the user by projecting image signal signals corresponding to this object image data directly onto the retina of the user.
  • image signals can be projected onto the retina of one eye or onto the retina of both eyes, the projection onto the retina of both eyes being particularly advantageous for spatial (three-dimensional) representations and allowing stereoscopic perceptions.
  • the eye features are preferably determined in that light reflected from eye parts, for example the iris (iris) or the retina (retina), is detected by at least a partial area of these eye parts and fed to a light-sensitive element.
  • eye parts for example the iris (iris) or the retina (retina)
  • iris iris
  • retina retina
  • the eye features comprise at least the retinal pattern from a retina of the relevant one User, wherein the retinal pattern is determined from the determined reflection data and the associated object image data, in particular by means of a differential operation, the reflection data being determined from detected light, which light is reflected by the retina on the basis of the projected image signals corresponding to the object image data.
  • This embodiment variant has the advantage that the information for identifying a user is made in an inseparable step ("atomic function") while the user is viewing the visualized image data of the transaction object.
  • the specific reflection data represent an (optical) link between the Image data of the transaction object, which are projected directly onto the retina of the user by means of corresponding image signals, and the (or) retina pattern of this user
  • the determination of the actual retina pattern from the reflection data can be carried out in a processing unit which is located in a local, for example mobile
  • the device is located at the user or in a service center remote from the user.
  • the transaction documents are sent via a telecommunications network, for example a fixed network or a mobile network, for example a GSM or a UMTS, or another, for example se satellite-based mobile network, transmitted to a processing unit in a service center.
  • the object data is obtained from a service center via a telecommunications network, for example a fixed network or a mobile network, for example a GSM or a UMTS network, or another, for example satellite-based, mobile radio network.
  • a telecommunications network for example a fixed network or a mobile network, for example a GSM or a UMTS network, or another, for example satellite-based, mobile radio network.
  • user data are advantageously determined in the processing unit, which are assigned to the eye features, these user data containing, for example, the name, the delivery address, a billing mode and possibly a billing address and any other information relating to the user.
  • the object data additionally contain an object provider identification.
  • the transaction document is not only information for the identification of a user and of a relevant transaction object, but also immediately identifies the service provider who is responsible for the transaction object, for example the service provider from whom a product or service can be obtained or who is responsible for the financial transaction, which visualizes for the user by means of the corresponding object data was so that the object identification of the transaction object and user data relating to the interested user, for example as an object order or as a financial transaction, can be forwarded to this service provider.
  • the present invention also relates in particular to a device and a service center for executing this transaction method.
  • FIG. 1 shows a data flow diagram, in which a possible data / signal flow of the transaction method according to the invention is shown schematically, and
  • FIG. 2 shows a block diagram, in which a device and a service center, which is connected to this device via a telecommunication network, for carrying out the transaction method according to the invention are schematically illustrated.
  • reference number 110 relates to a transaction object which is stored in an object database 27 and contains information about objects such as products or services.
  • the transaction object 110 contains object data 130, which comprise an object identification 131 and an object provider identification 132, the object provider identification 132 identifying the provider of the relevant product or the service provider of the relevant service.
  • the transaction object 110 also contains object image data 120, that is to say a file with digital,
  • object image data 120 that is to say a file with digital
  • compressed image data relating to the transaction object 110 for example an image of a product offered or an explanatory graphic of a service offered and that for an interested user, for example in the form of a two or three-dimensional image, in the form of a graphic, in the form of a written text or as a combination of these different forms can be made visible as moving (video) or still images.
  • the image data also include audio data (multimedia data) which can be reproduced to the interested user by means of suitable electro-acoustic transducers.
  • Transaction objects 110 via a telecommunications network 3, for example a fixed network or a mobile network, for example a GSM, UMTS or another, for example satellite-based, mobile radio network, from an object database 27 of a service center 2 or directly from an object database 27 of an object provider 7 or a service provider 7, for example by means of a suitable browser, for example a WAP-based browser (Wireless Application Protocol), or another suitable programmed software module and with the aid of a communication module 41.
  • Transaction objects 110 can also be on a removable data carrier, for example a CD-ROM to be loaded into the device 4.
  • the communication module 41 comprises all hardware and software components in order to communicate with other units via the telecommunications network 3, that is to say in particular to exchange data.
  • the communication module 41 is designed for a fixed or mobile network.
  • the object image data 120 are taken from a received transaction object 110 in step S1 and image signals 121 corresponding to the object image data 120 are projected directly onto the retina 51 of the user, with image signals 121 depending on the embodiment 51 one or both eyes 5 of the affected projected by the user.
  • the device 4 comprises a (virtual) retinal display device 46 for this purpose.
  • a virtual retinal display device which can project image signals directly onto a viewer's retina 51 has been described, for example, in patent applications WO 94/09472, WO 97/37339 and WO 98/13720.
  • These virtual retinal display devices can be supplied with image data via a video interface, for example in the form of an RGB signal, an NTSC signal, a VGA signal or another formatted colored or monochrome video or graphic signal.
  • a video interface for example in the form of an RGB signal, an NTSC signal, a VGA signal or another formatted colored or monochrome video or graphic signal.
  • accepted object image data can also be suitably adapted to the video interface, or received object image data 120 can be converted such that it is applied to the video interface and can be made visible to the user by means of the virtual retinal display device 46.
  • the virtual retinal display device 46 comprises an eye position determination module 461, which can determine the current eye positions of the user when viewing images.
  • An eye position determination module (eye tracker), which determines current eye positions based on the position of the pupil 52 of a user, was also described in the above-mentioned patent application WO 94/09472 and can be expanded by the person skilled in the art so that the determined eye position has a suitable position Interface for other components of the device 4 is available, in particular components that are outside the virtual retinal display device 46; Depending on the version, values can be made available for both eyes.
  • Certain current eye positions can be used, for example, to control the projection of the image signals 121 onto the retina 51, for example that the image areas viewed by the user come to rest on the area of the retina with the highest resolution, the fovea centralis, or they can be compared with predefined position values and, if current and predefined eye positions match, predefined functions can be carried out , so that an actual optical user interface which can be controlled by eye positions can be defined, the predefined positions being able to be represented to the user in an image, for example in the form of conventional GUI objects (graphical user interface).
  • GUI objects graphical user interface
  • step S2 this is shown in step S2 on the basis of the above
  • Image signals 121 detected light 171 reflected on the retina 51 and reflection data 170 are generated from the detected light values.
  • the device 4 for this purpose comprises a suitable scanner 47, which feeds the light 171 reflected by the retina 51 (at least) to a light-sensitive element 472, for example by means of a beam splitter 471.
  • a scanner which can also be used for multicolor images and is suitable for detecting retinal patterns, in particular the pattern formed by the blood vessels of the retina, has been described, for example, in the above-mentioned patent application WO 98/13720.
  • the image signals 121 corresponding to the object image data 120 are projected by the virtual retinal display device 46, for example by means of a suitable microelectromechanical movable mirror, onto the retina 51 in a grid of pixels 54, those via the beam splitter 471 correspond to the (at least one) light-sensitive one Reflected light rays 171 supplied to element 472 follow the same grid of reflected pixels 54, so that associated reflection data 170 corresponding to object image data 120 can be acquired.
  • the light values detected in the light-sensitive element (s) 472 are digitized, for example, in the data creation module 45 and, as shown in FIG. 1, the retina pattern 180 is generated, in particular, from the reflection data 170 obtained in this way and the corresponding associated object image data 120 in step S3 by means of a differential operation.
  • Step S3 may be sequential for each projected / reflected pixel 54 or only when the reflection data 170 is present for all projected / reflected image points 54.
  • the data creation module 45 is, for example, a programmed software module that is executed on a processor of the device 4 or a hardware module, for example an integrated circuit, or a combination of the two.
  • the retina patterns 180 are only generated, for example, when the user has indicated by means of a signal to the device 4, for example by means of a control element (not shown) or by positioning the eyes via the above-mentioned optical user interface, that he is making the transaction object 110 visible to the person concerned want to initiate a transaction, for example want to request the corresponding product or service.
  • FIG. 2 schematically shows the retina determination module 44 responsible for determining the retina pattern 180, which is designed as a programmed software module on a processor of the device 4 or in hardware form, for example as an integrated circuit.
  • An alternative embodiment variant, in which the determination of the retina pattern 180 ′ is carried out in the service center 2, will be discussed later.
  • this preferred exemplary embodiment only the detection of retinal patterns as eye features is dealt with, but that instead of this (regardless of the object image data) patterns of the iris (iris) can also be recorded.
  • a separate light source for example an LED (Light Emitting Diode) or a laser
  • the light rays of which, for example by means of a suitable, microelectromechanical movable mirror, as a grid of pixels 54 on the retina 51 are projected so that the detected reflection data 170 - which reflection data 170, as mentioned above, are obtained from the reflected light beams 171, for example by being fed to a light-sensitive element 472 via a beam splitter 471 and digitized in the data creation module 45 - without further operations must (in particular without step S2) correspond to the retinal pattern, this direct detection of the retinal pattern being able to take place while the user is simultaneously viewing the image data 120, if the separate light source emits light that has different wavelengths than the image signals 121 corresponding to the image data 120, for example if this light source is an infrared light source, and if the light-sensitive element 472 used is designed accordingly for this light.
  • components used by the virtual retinal display device 46 and by the scanner 47 such as, for example, rotatable microelectromechanical mirrors, light sources or light-sensitive elements, are used in combination by the display device 46 and the scanner 47 in various embodiments may or separate components may be used for the display device 46 and for the scanner 47. It is also possible for individual components, for example an LED light source and a light-sensitive element, to be replaced by components with a combined function.
  • the determined retinal patterns 180 are linked in step S4 with the object data 130 of the relevant, made visible transaction object 110 in a transaction document 190.
  • the object data 130 contain at least one object identification 131, but they can also additionally contain an object provider identification 132.
  • the transaction module 42 responsible for this operation is shown schematically in FIG.
  • the transaction module 42 is implemented, for example, as a programmed software module on a processor of the device 4 or in hardware form, for example as an integrated circuit.
  • the transaction module 42 also includes, for example, additional cryptographic functions, for example to electronically (digitally) sign the transaction receipt 190.
  • the transaction module 42 can, for example, also perform other usual functions, such as inserting transaction numbers.
  • the transaction documents 190 are forwarded to a processing unit 23, 43.
  • a processing unit 23, 43 Two different variants for the implementation of this processing unit 23, 43 are shown schematically in FIG.
  • the processing unit 23 in the service center 2 and the transaction documents 190 are transmitted to the service center 2 by means of the communication module 41 of the device 4 via the telecommunication network 3 and are received there by the communication module 21 and transferred to the processing unit 23.
  • the processing unit 43 is located in the device 4, so that the step S5 shown in FIG. 1 can be carried out locally in the device 4.
  • the retinal patterns 180, 180 ′ contained therein are taken from the transaction document 190 in step S5 and compared with retinal patterns 141 of user data records 140 from a user database 26 in order to determine user data 150 assigned to the relevant user if there is a match.
  • the retina patterns can be stored together with an assigned user identification of the user concerned in a separate attention database 61, in particular a retina database, which is certified, for example, by a TTP unit 6 (Trusted Third Party), so that the user identification first is determined and then the user data assigned to this user identification are obtained from a user database 26, which is managed, for example, by another unit, for example by a telecommunications network operator.
  • the device 4 contains, for example, local tables with user data records 140.
  • the retina patterns 180, 180 'contained in the transaction documents 190 match the stored retinal patterns 141 the user database 26, or a retina database or a local table in the device 4, for example in the case of a correlation with a predefined minimum required correlation value.
  • the processing unit 23, 43 which is a programmed software module on a processor of the service center 2 or on a processor of the device 4, or in hardware form, for example as an integrated circuit, in the service center 2 or the device 4, is carried out, for example also include image processing functions. As illustrated in FIG.
  • step S5 results in a transaction data record 160 which contains the transmitted object data 130, with the object identification 131 and possibly the object provider identification 132, and the specific user data 150.
  • the user data 150 contain, for example, the name of the user identified by the retina pattern 180, 180 ', 141, his delivery address, possibly a payment mode and relevant payment details, for example payment by credit card and associated credit card number or payment by bank account and associated clearing address, and possibly further details about the user, for example their preferred language.
  • the receipt of the transaction document 190 and, if applicable, the successful identification of the user on the basis of the eye features 180, 180 ′ contained in the transaction document 190 can be confirmed to the user by the processing unit 23, 43, for example, and, depending on the version, the user can be given the opportunity continue or cancel the further processing of the transaction.
  • the transaction data sets 160 resulting from step S5 can be forwarded to the responsible units by the processing unit 43 in the device 4, or respectively by the programmed forwarding module 22 in the service center 2, for example the transaction data sets 160 can be forwarded to the via the telecommunications network 3 responsible object provider 7, or service provider 7, where they are processed, for example without further involvement of the service center 2 or the device 4.
  • the device 4 contains, for example, tables with object provider data and the service center 2 comprises, as illustrated in FIG. 2, an object provider or service provider database 25.
  • the determination of the retina pattern 180 'from the reflection data 170 and the associated object location data 120 can be carried out in the service center 2.
  • This alternative is illustrated in FIG. 1 by the dashed lines.
  • the dashed arrow 172 shows that the recorded re inflection data 170 are fed directly to step S4 (without carrying out step S3) and are linked there together with the object data 130 in a transaction document 190.
  • step S3 ' which is carried out in accordance with FIG.
  • the retina pattern 180' is generated from the reflection data 170 contained in the transaction document 190 and the associated object bathroom data 120 identified by the object identification 131 contained in the transaction document 190 , in particular by means of a differential operation, and transferred to the processing unit 23 for the execution of step S5.
  • the retinal determination module 24 is, for example, a programmed software module that is executed on a processor of the service center 2 or a hardware module, for example an integrated circuit, or a combination of the two.
  • the service center 2 is implemented on one or more (networked) computers and has all the hardware and software components in the communication module 21 in order to communicate with other units via the telecommunication network 3, that is to say, in particular to exchange data, and it should be mentioned that that the telecommunications network 3 is shown only schematically in FIG. 2 and can for example comprise different types of telecommunications networks, for example fixed networks, for example the public switched telephone network, an ISDN network (Integrated Services Digital Network) or an IP network (Internet Protocol) , and mobile networks, for example GSM, UMTS or other, for example satellite-based mobile radio networks.
  • fixed networks for example the public switched telephone network, an ISDN network (Integrated Services Digital Network) or an IP network (Internet Protocol)
  • ISDN network Integrated Services Digital Network
  • IP network Internet Protocol
  • mobile networks for example GSM, UMTS or other, for example satellite-based mobile radio networks.
  • the components of the device 4 can be in a common
  • Housing can be integrated, but they can also be implemented in different interconnected housings.
  • the communication module 41 can in particular be implemented by an already existing conventional communication terminal, for example a communication-capable personal computer or in particular a mobile radio device, for example a mobile radio telephone or a communication-capable palm or laptop computer, which is connected via a wired or wireless interface the other components of the device 4 is connected.
  • These other components of the device 4 can be configured, for example, in a housing or on a suitable carrier in such a way that the user can put them on like conventional glasses.
  • the components of the virtual retinal display device 46 with the scanner 47 can be integrated on a common chip, so that the in the Steps S1, S2, S3 and S4 shown in the figure can be carried out by components of a single chip, which in particular also has security advantages, since the data records are processed in an unmanipulable manner in a single chip and the resulting transaction document 190 is also (electronically) signed in this chip, for example can.
  • the eye features can not only be retinal patterns 180, 180 'but also features of other parts of the eye, for example patterns of the iris 53, and that the object image data 120 does not appear only by direct projection of corresponding image signals 121 the retina 51 of the user can be made visible, but that this can also be achieved by other conventional display methods, for example by means of picture tubes, LCD displays or suitable stereoscopic displays.
  • interested users can also be sold sub-modules, in particular the components mentioned above, which are in one Housing or on a suitable carrier and can be connected via a suitable interface with a conventional, already existing communication terminal in order to expand the already existing communication terminal to a device 4 described.
  • the above-mentioned chips for manufacturing devices 4 or of the sub-modules described can also be sold to interested manufacturers.
  • Operators of a service center 2 can, for example, charge a fee from an object provider for each transaction processed via their service center 2, which relates to a transaction object 110 of this object provider 7.

Abstract

Transaktionsverfahren sowie eine geeignete Dienstzentrale (2) und eine geeignete Vorrichtung (4) zur Ausführung dieses Transaktionsverfahrens, in welchem Objektbilddaten (120), die ein Transaktionsobjekt (110) betreffen, beispielsweise ein Produkt oder eine Dienstleistung, für einen Benutzer sichtbar gemacht werden, beispielsweise indem den Objektbilddaten (120) entsprechende Bildsignale (121) direkt auf die Retina (51) des Benutzers projiziert werden, wobei Augenmerkmale des Benutzers bestimmt werden, während die sichtbar gemachten Objektbilddaten (120) durch ihn betrachtet werden, beispielsweise indem das Licht (171), das durch die Retina (51) auf Grund der projizierten Bildsignale (121) reflektiert wird, erfasst wird und aus den bestimmten Reflexionsdaten (170) und den zugehörigen Objektbilddaten (120) Retinamuster (180) des Benutzers bestimmt werden, wobei die bestimmten Augenmerkmale (180) mit Objektdaten (130), die das Transaktionsobjekt (110) betreffen, in einem Transaktionsbeleg (190) verknüpft werden und der Transaktionsbeleg (190) an eine Verarbeitungseinheit (23) weitergeleitet wird.

Description

Transaktionsverfahren und dafür geeignete Vorrichtungen
Die vorliegende Erfindung betrifft ein Transaktionsverfahren und dafür geeignete Vorrichtungen. Insbesondere betrifft die vorliegende Erfindung ein Transaktionsverfahren und dafür geeignete Vorrichtungen, in welchem Transaktionsverfahren Angaben zur Identifizierung eines Benutzers mit einer Objektidentifizierung eines Transaktionsobjekts, beispielsweise ein Produkt oder eine Dienstleistung, in einem Transaktionsbeleg verknüpft werden und der Transaktionsbeleg an eine Verarbeitungseinheit geleitet wird.
In bekannten Transaktionsverfahren, in denen ein Benutzer involviert ist, beispielsweise Bestellungstransaktionsverfahren, in denen Kunden
Bestellungen für Produkte und/oder Dienstleistungen an ein Dienstleistungszentrum übermitteln, muss sich der Benutzer typischerweise mit einem Identifizierungsmodul, beispielsweise eine Kreditkarte, eine Kundenkarte oder eine SIM-Karte (Subscriber Identification Module), und/oder mit einem persönlichen Code (Passwort, PIN-Nummer) identifizieren. Der Nachteil dieser Verfahren besteht darin, dass die Identifizierungsmodule verloren oder gestohlen werden können, so dass, auch wenn die Verwendung durch Unberechtigte durch den zusätzlichen persönlichen Code erschwert wird, trotzdem noch das Problem besteht, dass ein betreffender Benutzer sich erst nach dem Erhalt eines Er- satzmoduls wieder korrekt identifizieren kann. Zudem bereitet es vielen Benutzern Mühe, die immer zahlreicher werdenden Identifizierungsmodule mit sich zu tragen und sich an die dazugehörenden persönlichen Codes zu erinnern.
Es ist eine Aufgabe dieser Erfindung, ein neues und besseres Transaktionsverfahren, in welchem Benutzer involviert sind, sowie dafür geeig- nete Vorrichtungen vorzuschlagen, welche insbesondere nicht die erwähnten Nachteile aufweisen.
Gemäss der vorliegenden Erfindung wird dieses Ziel insbesondere durch die Elemente der unabhängigen Ansprüche erreicht. Weitere vorteilhafte Ausführungsformen gehen ausserdem aus den abhängigen Ansprüchen und der Beschreibung hervor. Dieses Ziel wird durch die vorliegende Erfindung insbesondere dadurch erreicht, dass Objektbüddaten, die ein Transaktionsobjekt betreffen, beispielsweise ein Produkt oder eine Dienstleistung, für einen betreffenden Benutzer sichtbar gemacht werden, dass Augenmerkmale des Benutzers be- stimmt werden, während die sichtbar gemachten Objektbüddaten durch den Benutzer betrachtet werden, und dass die bestimmten Augenmerkmale mit Objektdaten, die das Transaktionsobjekt betreffen und mindestens eine Objektidentifizierung enthalten, in einem Transaktionsbeleg verknüpft werden, welcher Transaktionsbeleg dann an eine Verarbeitungseinheit weitergeleitet werden kann. Der Vorteil dieses Transaktionsverfahren besteht darin, dass Augenmerkmale als biometrisches Identifizierungsmittel verwendet werden und somit vom Benutzer keine herkömmlichen Identifizierungsmodule mehr getragen und keine zusätzlichen persönlichen Codes eingeprägt werden müssen. Die Objektbüddaten erlauben zudem dem Benutzer das betreffende Transakti- onsobjekt zu visualisieren, beispielsweise in Form eines zwei- oder dreidimensionalen Bildes, in Form einer Grafik, in Form eines schriftlichen Texts oder mittels einer Kombination dieser verschiedenen Formen.
In einer bevorzugten Ausführungsvariante werden die Objektbüddaten für den Benutzer sichtbar gemacht, indem diesen Objektbüddaten entspre- chende Bildsignale direkt auf die Retina des Benutzers projiziert werden. Je nach Ausführung können Bildsignale auf die Retina eines Auges oder auf die Retina beider Augen projiziert werden, wobei die Projektion auf die Retina beider Augen insbesondere für räumliche (dreidimensionale) Darstellungen vorteilhaft ist und stereoskopische Wahrnehmungen ermöglicht.
Vorzugsweise werden die Augenmerkmale dadurch bestimmt, dass von Augenteilen, beispielsweise die Regenbogenhaut (Iris) oder die Netzhaut (Retina), reflektiertes Licht mindestens von einem Teilgebiet dieser Augenteile erfasst und einem lichtempfindlichen Element zugeführt wird. Je nach Ausführungsvariante besteht die Möglichkeit, Augenmerkmale von Augenteilen beider Augen oder nur von einem Auge zu erfassen.
In einer bevorzugten Ausführungsvariante umfassen die Augenmerkmale mindestens das Retinamuster von einer Retina des betreffenden Benutzers, wobei das Retinamuster aus den bestimmten Reflexionsdaten und den zugehörigen Objektbüddaten, insbesondere durch eine Differenzoperation, bestimmt wird, wobei die Reflexionsdaten aus erfasstem Licht bestimmt werden, welches Licht durch die Retina auf Grund der projizierten, den Objektbüd- daten entsprechenden Bildsignale reflektiert wird. Diese Ausführungsvariante hat den Vorteil, dass die Angaben zur Identifizierung eines Benutzers in einem untrennbaren Schritt („atomic function") während der Betrachtung der sichtbar gemachten Bilddaten des Transaktionsobjekts durch diesen Benutzer erfolgt. Die bestimmten Reflexionsdaten repräsentieren nämlich eine (optische) Ver- knüpfung der Bilddaten des Transaktionsobjekts, welche mittels entsprechenden Bildsignalen direkt auf die Retina des Benutzers projiziert werden, und dem (oder den) Retinamuster dieses Benutzers. Die Bestimmung der eigentlichen Retinamuster aus den Reflexionsdaten kann in einer Verarbeitungseinheit durchgeführt werden, die sich in einer lokalen, beispielsweise mobilen, Vorrichtung beim Benutzer oder in einer vom Benutzer entfernten Dienstzentrale befindet. Im letzteren Fall werden die Transaktionsbelege über ein Telekommunikationsnetz, beispielsweise ein Festnetz oder ein Mobilnetz, zum Beispiel ein GSM- oder ein UMTS-, oder ein anderes, beispielsweise satellitenbasiertes Mobilfunknetz, an eine Verarbeitungseinheit in einer Dienstzentrale übermittelt. In entsprechenden Ausführungsvarianten werden die Objektbüddaten über ein Telekommunikationsnetz, beispielsweise ein Festnetz oder ein Mobilnetz, zum Beispiel ein GSM- oder ein UMTS-, oder ein anderes, beispielsweise satellitenbasiertes Mobilfunknetz, von einer Dienstzentrale bezogen.
Zur Weiterverarbeitung des Transaktionsbelegs werden in der Verarbeitungseinheit vorteilhafterweise Benutzerdaten bestimmt, die den Augenmerkmalen zugeordnet sind, wobei diese Benutzerdaten beispielsweise den Namen, die Zustelladresse, einen Verrechnungsmodus und gegebenenfalls eine Verrechnungsadresse und eventuelle weitere den Benutzer betreffende Angaben enthalten.
In einer Ausführungsvariante enthalten die Objektdaten zusätzlich eine Objektanbieteridentifizierung. Dies hat den Vorteil, dass der Transaktionsbeleg nicht nur Angaben zur Identifizierung eines betreffenden Benutzers und eines betreffenden Transaktionsobjekts enthält, sondern auch gleich den Dienstleister identifiziert, der für das Transaktionsobjekt zuständig ist, beispielsweise der Dienstleister, von welchem ein Produkt oder eine Dienstleistung bezogen werden kann oder der für die Finanztransaktion zuständig ist, welche mittels der entsprechenden Objektbüddaten für den Benutzer visualisiert wurde, so dass die Objektidentifizierung des Transaktionsobjekts und Benutzerdaten betreffend den interessierten Benutzer, beispielsweise als Objektbestellung oder als Finanztransaktion, an diesen Dienstleister weitergeleitet werden können.
Neben dem erfindungsgemässen Transaktionsverfahren bezieht sich die vorliegende Erfindung insbesondere auch auf eine Vorrichtung und eine Dienstzentrale zur Ausführung dieses Transaktionsverfahrens.
Nachfolgend wird eine Ausführung der vorliegenden Erfindung anhand eines Beispieles beschrieben. Das Beispiel der Ausführung wird durch folgende beigelegten Figuren illustriert:
Figur 1 zeigt ein Datenflussdiagramm, in welchem schematisch ein möglicher Daten-/Signalfluss des erfindungsgemässen Transaktionsverfahrens dargestellt ist, und
Figur 2 zeigt ein Blockdiagramm, in welchem schematisch eine Vor- richtung und eine Dienstzentrale, die über ein Telekommunikationsnetz mit dieser Vorrichtung verbunden ist, zur Ausführung des erfindungsgemässen Transaktionsverfahrens illustriert werden.
In der Figur 1 bezieht sich die Bezugsziffer 110 auf ein Transaktionsobjekt, welches in einer Objektdatenbank 27 gespeichert ist und Angaben über Objekte wie Produkte oder Dienstleistungen enthält. Das Transaktionsobjekt 110 enthält Objektdaten 130, die eine Objektidentifizierung 131 und eine Objektanbieteridentifizierung 132 umfassen, wobei die Objektanbieteridentifizierung 132 den Anbieter des betreffenden Produkts, respektive den Dienstleister der betreffenden Dienstleistung identifiziert. Das Transaktions- objekt 110 enthält zudem Objektbüddaten 120, das heisst ein File mit digitalen, beispielsweise komprimierten, Bilddaten, die das Transaktionsobjekt 110 betreffen, beispielsweise ein Bild eines angebotenen Produkts oder eine erklärende Grafik einer angebotenen Dienstleistung und die einem interessierten Benutzer beispielsweise in Form eines zwei- oder dreidimensionalen Bildes, in Form einer Grafik, in Form eines schriftlichen Texts oder als Kombination dieser verschiedenen Formen als bewegte (Video) oder stehende Bilder sichtbar gemacht werden können. In einer Variante umfassen die Bilddaten zusätzlich auch Audiodaten (Multimediadaten), welche dem interessierten Benutzer mittels geeigneten elektro-akustischen Wandlern wiedergegeben werden können.
Wie in der Figur 2 illustriert wird, kann ein Benutzer der Vorrichtung 4
Transaktionsobjekte 110 über ein Telekommunikationsnetz 3, beispielsweise ein Festnetz oder ein Mobilnetz, beispielsweise ein GSM-, UMTS- oder ein anderes, beispielsweise satellitenbasiertes, Mobilfunknetz, aus einer Objektdatenbank 27 einer Dienstzentrale 2 oder direkt aus einer Objektdatenbank 27 eines Objektanbieters 7, respektive eines Dienstleisters 7, beziehen, beispielsweise mittels einem geeigneten Browser, beispielsweise ein WAP-ba- sierter Browser (Wireless Application Protocol), oder einem anderen geeigneten programmierten Softwaremodul und unter Zuhilfenahme eines Kommunikationsmoduls 41. Transaktionsobjekte 110 können aber auch auf einem ent- fernbaren Datenträger, beispielsweise eine CD-ROM, in die Vorrichtung 4 geladen werden. Das Kommunikationsmodul 41 umfasst sämtliche Hard- und Softwarekomponenten um mit anderen Einheiten über das Telekommunikationsnetz 3 zu kommunizieren, das heisst, insbesondere Daten auszutauschen. Je nachdem ob die Vorrichtung 4 als festinstallierte Vorrichtung, beispielsweise in Form eines öffentlich zugänglichen Terminals oder als mobile Vorrichtung, ausgeführt ist, ist das Kommunikationsmodul 41 für ein Fest- oder Mobilnetz ausgelegt.
Wie in der Figur 1 dargestellt ist, werden aus einem entgegengenommenen Transaktionsobjekt 110 im Schritt S1 die Objektbüddaten 120 ent- nommen und den Objektbüddaten 120 entsprechende Bildsignale 121 direkt auf die Retina 51 des Benutzers projiziert, wobei, je nach Ausführung, Bildsignale 121 in die Retina 51 eines oder beider Augen 5 des betreffenden Be- nutzers projiziert werden. Wie in der Figur 2 dargestellt ist, umfasst die Vorrichtung 4 für diesen Zweck eine (virtuelle) retinale Anzeigevorrichtung 46.
Eine virtuelle retinale Anzeigevorrichtung (Virtual Retinal Display, VRD), welche Bildsignale direkt auf die Retina 51 eines Betrachters projizieren kann, wurde beispielsweise in den Patentanmeldungen WO 94/09472, WO 97/37339 und WO 98/13720 beschrieben. Diese virtuellen retinalen Anzeigevorrichtungen können über eine Videoschnittstelle mit Bilddaten versorgt werden, beispielsweise in Form eines RGB-Signals, eines NTSC-Signals, eines VGA-Signals oder eines anderen formatierten farbigen oder monochromen Video- oder Grafiksignals. Der Fachmann wird verstehen, dass es vorteilhaft sein kann die in den erwähnten Patentschriften WO 94/09472, WO 97/37339 und WO 98/13720 beschriebene virtuelle retinale Anzeigevorrichtung, respektive die dort beschriebene Videoschnittstelle, so anzupassen, dass auch andere Formate von Bilddaten effizient entgegengenommen werden können. Mittels eines nicht dargestellten Schnittstellenmoduls können entgegengenommene Objektbüddaten aber auch geeignet an die Videoschnittstelle ange- passt werden, respektive erhaltene Objektbüddaten 120 so umgewandelt werden, dass sie an die Videoschnittstelle angelegt und mittels der virtuellen retinalen Anzeigevorrichtung 46 für den Benutzer sichtbar gemacht werden kön- nen.
Wie in der Figur 2 schematisch dargestellt ist, umfasst die virtuelle retinale Anzeigevorrichtung 46 ein Augenpositionsbestimmungsmodul 461 , welches aktuelle Augenpositionen des Benutzers beim Betrachten von Bildern bestimmen kann. Ein Augenpositionsbestimmungsmodul (Eye Tracker), wel- ches aktuelle Augenpositionen basierend auf der Position der Pupille 52 eines Benutzers bestimmt, wurde ebenfalls in der oben erwähnten Patentanmeldung WO 94/09472 beschrieben und kann vom Fachmann so erweitert werden, dass die bestimmte Augenposition über eine geeignete Schnittstelle für andere Komponenten der Vorrichtung 4 verfügbar ist, insbesondere Komponenten, die ausserhalb der virtuellen retinalen Anzeigevorrichtung 46 liegen; je nach Ausführung können Werte für beide Augen verfügbar gemacht werden. Bestimmte aktuelle Augenpositionen können beispielsweise dazu verwendet werden die Projektion der Bildsignale 121 auf die Retina 51 zu steuern, beispielsweise so, dass die vom Benutzer betrachteten Bildbereiche beim Benutzer auf das Gebiet der Retina mit der höchsten Auflösung, die Fovea Centralis, zu liegen kommen, oder sie können mit vordefinierten Positionswerten verglichen werden und bei einer Übereinstimmung von aktuellen und vordefinierten Augenpositio- nen können vordefinierte Funktionen ausgeführt werden, so dass eine eigentliche optische, durch Augenpositionen steuerbare Benutzerschnittstelle definiert werden kann, wobei die vordefinierten Positionen dem Benutzer bildlich, beispielsweise in Form von herkömmlichen GUI-Objekten (Graphical User Interface), dargestellt werden können.
In der Figur 1 wird im Schritt S2 das auf Grund der oben erwähnten
Bildsignale 121 auf der Retina 51 reflektierte Licht 171 erfasst und aus den erfassten Lichtwerten werden Reflexionsdaten 170 generiert. Wie in der Figur 2 dargestellt wird, umfasst die Vorrichtung 4 für diesen Zweck einen geeigneten Scanner 47, der das von der Retina 51 reflektierte Licht 171 beispielsweise mittels eines Strahlteilers 471 (mindestens) einem lichtempfindlichen Element 472 zuführt. Ein solcher Scanner, der auch für mehrfarbige Bilder ausgeführt werden kann und sich zum Erfassen von Retinamustern eignet, insbesondere das durch die Blutadern der Retina gebildete Muster, wurde beispielsweise in der oben erwähnten Patentanmeldung WO 98/13720 beschrieben. Da die den Objektbüddaten 120 entsprechenden Bildsignale 121 von der virtuellen retinalen Anzeigevorrichtung 46, beispielsweise durch einen geeigneten mikroelek- tromechanischen beweglichen Spiegel, in einem Raster von Bildpunkten 54 auf die Retina 51 projiziert werden, entsprechen die über den Strahlteiler 471 dem (mindestens einen) lichtempfindlichen Element 472 zugeführten reflektierten Lichtstrahlen 171 dem selben Raster von reflektierten Bildpunkten 54, so dass den Objektbüddaten 120 entsprechende zugehörige Reflexionsdaten 170 erfasst werden können.
Die im (in den) lichtempfindlichen Element(en) 472 erfassten Lichtwerte werden beispielsweise im Datenerstellungsmodul 45 digitalisiert und, wie in der Figur 1 dargestellt, aus den dadurch erhaltenen Reflexionsdaten 170 und den entsprechenden zugehörigen Objektbüddaten 120 im Schritt S3 das Retinamuster 180 generiert, insbesondere mittels einer Differenzoperation. Der Schritt S3 kann sequentiell für jeden projizierten/reflektierten Bildpunkt 54 oder erst beim Vorliegen der Reflexionsdaten 170 für sämtliche projizier- ten/reflektierten Bildpunkte 54 durchgeführt werden. Das Datenerstellungsmodul 45 ist beispielsweise ein programmiertes Softwaremodul das auf einem Prozessor der Vorrichtung 4 ausgeführt wird oder ein Hardwaremodul, bei- spielsweise ein integrierter Schaltkreis, oder eine Kombination der beiden. In einer Variante werden die Retinamuster 180 beispielsweise nur generiert, wenn der Benutzer mittels eines Signals an die Vorrichtung 4, beispielsweise mittels eines nicht dargestellten Bedienungselements oder durch Augenpositionierung über die oben erwähnte optische Benutzerschnittstelle, angezeigt hat, dass er für das betreffende sichtbar gemachte Transaktionsobjekt 110 eine Transaktion einleiten möchte, das heisst zum Beispiel das entsprechende Produkt oder die entsprechende Dienstleistung anfordern möchte. In der Figur 2 ist das für die Bestimmung der Retinamuster 180 zuständige Retinabestimmungsmodul 44, welches als programmiertes Softwaremodul auf einem Prozessor der Vorrichtung 4 oder in Hardwareform, beispielsweise als integrierter Schaltkreis, ausgeführt ist, schematisch dargestellt. Auf eine alternative Ausführungsvariante, in der die Bestimmung der Retinamuster 180' in der Dienstzentrale 2 durchgeführt wird, wird später eingegangen. An dieser Stelle sollte erwähnt werden, dass in diesem bevorzugten Ausführungsbeispiel nur auf die Erfassung von Retinamustern als Augenmerkmale eingegangen wird, aber dass an deren Stelle auch (unabhängig von den Objektbüddaten) Muster der Iris (Regenbogenhaut) erfasst werden können.
Es ist auch möglich, dass für die Betstimmung der Retinamuster eine separate Lichtquelle, beispielsweise eine LED (Light Emitting Diode) oder ein Laser, verwendet wird, deren Lichtstrahlen, beispielsweise mittels geeignetem, mikroelektromechanischem beweglichen Spiegel, als Raster von Bildpunkten 54 auf die Retina 51 projiziert werden, so dass die erfassten Reflexionsdaten 170 - welche Reflexionsdaten 170, wie oben erwähnt, aus den reflektierten Lichtstrahlen 171 gewonnen werden, beispielsweise indem sie über einen Strahlteiler 471 einem lichtempfindlichen Element 472 zugeführt und im Datenerstellungsmodul 45 digitalisiert werden - ohne weitere Operationen ausführen zu müssen (insbesondere ohne Schritt S2) dem Retinamuster entsprechen, wobei diese direkte Erfassung der Retinamuster während der gleichzeitigen Betrachtung der Bilddaten 120 durch den Benutzer erfolgen kann, wenn die separate Lichtquelle Licht ausstrahlt, das andere Wellenlängen umfasst, als die den Bilddaten 120 entsprechenden Bildsignale 121 , beispielsweise wenn diese Lichtquelle eine Infrarotlichtquelle ist, und wenn das verwendete lichtempfindliche Element 472 entsprechend für dieses Licht ausgelegt ist.
Der Fachmann wird verstehen, dass im Sinne der vorliegenden Erfindung von der virtuellen retinalen Anzeigevorrichtung 46 und vom Scanner 47 verwendete Komponenten, wie beispielsweise drehbare mikroelektromechani- sche Spiegel, Lichtquellen oder lichtempfindliche Elemente in verschiedenen Ausführungsvarianten von der Anzeigevorrichtung 46 und vom Scanner 47 kombiniert verwendet werden können oder für die Anzeigevorrichtung 46 und für den Scanner 47 jeweils separate Komponenten verwendet werden können. Es ist auch möglich, dass einzelne Komponenten, beispielsweise eine LED- Lichtquelle und ein lichtempfindliches Element, durch Komponenten mit kombinierter Funktion ersetzt werden können.
Wie in der Figur 1 dargestellt ist, werden im Schritt S4 die bestimmten Retinamuster 180 mit den Objektdaten 130 des betreffenden, sichtbar gemachten Transaktionsobjekts 110 in einem Transaktionsbeleg 190 verknüpft. Die Objektdaten 130 enthalten mindestens eine Objektidentifizierung 131 , sie können aber zusätzlich auch eine Objektanbieteridentifizierung 132 enthalten. In der Figur 2 wird das für diese Operation zuständige Transaktionsmodul 42 schematisch dargestellt. Das Transaktionsmodul 42 wird beispielsweise als programmiertes Softwaremodul auf einem Prozessor der Vorrichtung 4 oder in Hardwareform, beispielsweise als integrierter Schaltkreis, ausgeführt. Das Transaktionsmodul 42 umfasst zum Beispiel auch zusätzliche kryptographische Funktionen, beispielsweise um den Transaktionsbeleg 190 elektronisch (digital) zu signieren. Vom Transaktionsmodul 42 können beispielsweise auch weitere übliche Funktionen, wie beispielsweise Einfügen von Transaktionsnummern, übernommen werden.
Zur Weiterverarbeitung im Schritt S5 werden die Transaktionsbelege 190 an eine Verarbeitungseinheit 23, 43 weitergeleitet. In der Figur 2 sind zwei verschiedene Varianten für die Implementation dieser Verarbeitungseinheit 23, 43 schematisch dargestellt. In einer ersten bevorzugten Variante befindet sich die Verarbeitungseinheit 23 in der Dienstzentrale 2 und die Transaktionsbelege 190 werden mittels des Kommunikationsmoduls 41 der Vorrichtung 4 über das Telekommunikationsnetz 3 an die Dienstzentrale 2 übermittelt und dort vom Kommunikationsmodul 21 entgegengenommen und der Verarbeitungseinheit 23 übergeben. In einer zweiten Variante befindet sich die Verarbeitungseinheit 43 in der Vorrichtung 4, so dass der in der Figur 1 dargestellte Schritt S5 lokal in der Vorrichtung 4 ausgeführt werden kann.
Gemäss der Figur 1 werden im Schritt S5 aus dem Transaktionsbeleg 190 die darin enthaltenen Retinamuster 180, 180' entnommen und mit Reti- namustern 141 von Benutzerdatensätzen 140 aus einer Benutzerdatenbank 26 verglichen um bei einer Übereinstimmung dem betreffenden Benutzer zugeordnete Benutzerdaten 150 zu bestimmen. Je nach Ausführung können die Retinamuster zusammen mit einer zugeordneten Benutzeridentifizierung des betreffenden Benutzers in einer separaten Augenmerkmaldatenbank 61 , insbe- sondere eine Retinadatenbank, gespeichert werden, welche beispielsweise von einer TTP-Einheit 6 (Trusted Third Party) zertifiziert wird, so dass zunächst die Benutzeridentifizierung bestimmt wird und dann die dieser Benutzeridentifizierung zugeordneten Benutzerdaten aus einer Benutzerdatenbank 26 bezogen werden, die beispielsweise von einer anderen Einheit, beispielsweise von einem Telekommunikationsnetzbetreiber, verwaltet wird. In der oben erwähnten Variante mit der lokalen Verarbeitungseinheit 43 enthält die Vorrichtung 4 beispielsweise lokale Tabellen mit Benutzerdatensätzen 140. An dieser Stelle sollte erwähnt werden, dass die Übereinstimmung der in den Transaktionsbelegen 190 enthaltenen Retinamuster 180, 180' mit den abgespeicherten Reti- namustern 141 aus der Benutzerdatenbank 26, respektive einer Retinadatenbank oder einer lokalen Tabelle in der Vorrichtung 4, beispielsweise bei einer Korrelation mit einem vordefinierten minimal erforderlichen Korrelationswert gegeben sein kann. Für die Durchführung des Vergleichs kann die Verarbeitungseinheit 23, 43, welche als programmiertes Softwaremodul auf einem Pro- zessor der Dienstzentrale 2, respektive auf einem Prozessor der Vorrichtung 4, oder in Hardwareform, beispielsweise als integrierter Schaltkreis, in der Dienstzentrale 2, respektive der Vorrichtung 4, ausgeführt wird, beispielsweise auch Bildverarbeitungsfunktionen umfassen. Wie in der Figur 1 illustriert wird resultiert aus dem Schritt S5 ein Transaktionsdatensatz 160, der die übermittelten Objektdaten 130, mit der Objektidentifizierung 131 und gegebenenfalls der Objektanbieteridentifizierung 132, sowie die bestimmten Benutzerdaten 150 enthält. Die Benutzerdaten 150 enthalten beispielsweise den Namen des durch das Retinamuster 180, 180', 141 identifizierten Benutzers, dessen Zustellungsadresse, gegebenenfalls einen Zahlungsmodus und betreffende Zahlungsangaben, zum Beispiel Zahlung per Kreditkarte und zugehörige Kreditkartennummer oder Zahlung per Bankkonto und zugehörige Verrechnungsadresse, und eventuell weitere Angaben über den Benutzer, zum Beispiel dessen bevorzugte Sprache.
Der Empfang des Transaktionsbelegs 190 und gegebenenfalls die erfolgreiche Identifizierung des Benutzers auf Grund der im Transaktionsbeleg 190 enthaltenen Augenmerkmale 180, 180' können dem Benutzer beispielsweise von der Verarbeitungseinheit 23, 43 bestätigt werden und, je nach Aus- führung, kann dem Benutzer die Möglichkeit gegeben werden, die Weiterbehandlung der Transaktion fortzusetzen oder abzubrechen. Die aus dem Schritt S5 resultierenden Transaktionsdatensätze 160 können von der Verarbeitungseinheit 43 in der Vorrichtung 4, respektive vom programmierten Weiterlei- tungsmodul 22 in der Dienstzentrale 2, an die zuständigen Einheiten weiterge- leitet werden, beispielsweise können die Transaktionsdatensätze 160 über das Telekommunikationsnetz 3 an den zuständigen Objektanbieter 7, respektive Dienstleister 7, übermittelt werden, wo sie, beispielsweise ohne weitere Beteiligung der Dienstzentrale 2 oder der Vorrichtung 4, weiterbehandelt werden. Um die Transaktionsdatensätze 160 an betreffende, durch die Objektanbieteridenti- fizierung 132 identifizierte Objektanbieter 7 weiterzuleiten, enthält die Vorrichtung 4 beispielsweise Tabellen mit Objektanbieterdaten und die Dienstzentrale 2 umfasst, wie in der Figur 2 illustriert, eine Objektanbieter-, respektive Dienstleisterdatenbank 25.
Wie bereits oben erwähnt wurde, kann in einer alternativen Ausfüh- rungsvariante die Bestimmung der Retinamuster 180' aus den Reflexionsdaten 170 und den zugehörigen Objektbüddaten 120 in der Dienstzentrale 2 durchgeführt werden. Diese Alternative ist in der Figur 1 durch die gestrichelten Linien illustriert. Der gestrichelte Pfeil 172 stellt dar, dass die erfassten Re- flexionsdaten 170 direkt (ohne Durchführung des Schritts S3) dem Schritt S4 zugeführt werden und dort zusammen mit den Objektdaten 130 in einem Transaktionsbeleg 190 verknüpft werden. Im alternativen Schritt S3', der ge- mäss Figur 2 im Retinabestimmungsmodul 24 der Dienstzentrale 2 ausgeführt wird, wird das Retinamuster 180' aus den im Transaktionsbeleg 190 enthaltenen Reflexionsdaten 170 und den zugehörigen, durch die im Transaktionsbeleg 190 enthaltene Objektidentifizierung 131 identifizierten Objektbüddaten 120 generiert, insbesondere mittels einer Differenzoperation, und zur Ausführung des Schritts S5 der Verarbeitungseinheit 23 übergeben. Das Retinabestim- mungsmodul 24 ist beispielsweise ein programmiertes Softwaremodul, das auf einem Prozessor der Dienstzentrale 2 ausgeführt wird oder ein Hardwaremodul, beispielsweise ein integrierter Schaltkreis, oder eine Kombination der beiden.
Die Dienstzentrale 2 ist auf einem oder mehreren (vernetzten) Com- putern implementiert und verfügt im Kommunikationsmodul 21 über sämtliche Hard- und Softwarekomponenten, um mit anderen Einheiten über das Telekommunikationsnetz 3 zu kommunizieren, das heisst, insbesondere Daten auszutauschen, wobei zu erwähnen ist, dass das Telekommunikationsnetz 3 in der Figur 2 nur schematisch dargestellt ist und beispielsweise verschiedene Arten von Telekommunikationsnetzen umfassen kann, beispielsweise Festnetze, zum Beispiel das öffentliche geschaltete Telefonnetz, ein ISDN-Netz (Integrated Services Digital Network) oder ein IP-Netz (Internet Protocol), und Mobilnetze, zum Beispiel GSM-, UMTS- oder andere, beispielsweise satellitenbasierte Mobilfunknetze.
Die Komponenten der Vorrichtung 4 können in einem gemeinsamen
Gehäuse integriert werden, sie können aber auch in verschiedenen miteinander verbundenen Gehäusen implementiert werden. Zum Beispiel kann insbesondere das Kommunikationsmodul 41 durch ein bereits bestehendes herkömmliches Kommunikationsendgerät, beispielsweise ein kommunikationsfähi- ger Personal Computer oder insbesondere ein Mobilfunkgerät, beispielsweise ein Mobilfunktelefon oder ein kommunikationsfähiger Palm- oder Laptop-Computer, realisiert werden, welches über eine drahtgebundene oder drahtlose Schnittstelle mit den anderen Komponenten der Vorrichtung 4 verbunden ist. Diese anderen Komponenten der Vorrichtung 4 können beispielsweise in einem Gehäuse oder auf einem geeigneten Träger so ausgestaltet werden, dass sie vom Benutzer wie eine herkömmliche Brille aufgesetzt werden können. An dieser Stelle sollte zudem erwähnt werden, dass insbesondere die Kompo- nenten der virtuellen retinalen Anzeigevorrichtung 46 mit dem Scanner 47 aber beispielsweise auch das Transaktionsmodul 42, das Retinabestimmungsmodul 44 und das Datenerstellungsmodul 45 auf einem gemeinsamen Chip integriert werden können, so dass die in der Figur dargestellten Schritte S1 , S2, S3 und S4 durch Komponenten eines einzigen Chips ausgeführt werden können, was insbesondere auch Sicherheitsvorteüe hat, da die Datensätze in einem einzigen Chip unmanipulierbar verarbeitet werden und der resultierende Transaktionsbeleg 190 in diesem Chip beispielsweise auch (elektronisch) signiert werden kann.
An dieser Stelle sollte erwähnt werden, dass wie bereits erwähnt, die Augenmerkmale nicht bloss Retinamuster 180, 180' sondern auch Merkmale von anderen Augenteilen, beispielsweise Muster der Iris 53 sein können, und dass die Objektbüddaten 120 nicht nur durch direkte Projektion entsprechender Bildsignale 121 auf die Retina 51 des Benutzers sichtbar gemacht werden können, sondern, dass dies auch durch andere konventionelle Anzeigemethoden, beispielsweise mittels Bildröhren, LCD-Anzeigen oder geeigneter stereoskopartigen Anzeigen, erreicht werden kann. Es sollte zudem auch erwähnt werden, dass in dieser Beschreibung nicht näher auf weitere in Transaktionsverfahren übliche Merkmale, wie beispielsweise Verschlüsselung/Entschlüsselung von über Telekommunikationsnetze 3 übertragenen Daten, Authentifizierung der Dienstzentrale 2 und anderen am Transaktionsverfahren beteiligten Einheiten, oder Protokolle für Auftragsbestätigung, Verrechnung oder Backup/Recovery- Prozeduren, eingegangen wurde, da diese vom Fachmann in bekannter Weise realisiert werden können.
Neben dem Verkauf oder der Vermietung von beschriebenen Dienstzentralen 2 und/oder festinstallierbaren Vorrichtungen 4 an interessierte Betreiber und von beschriebenen (insbesondere mobilen) Vorrichtungen 4 an interessierte Benutzer, können interessierten Benutzern auch Teilmodule verkauft werden, insbesondere die oben erwähnten Komponenten, die in einem Gehäuse oder auf einem geeigneten Träger ausgeführt sind und über eine geeignete Schnittstelle mit einem herkömmlichen, bereits vorhandenen Kommunikationsendgerät verbunden werden können, um das bereits vorhandene Kommunikationsendgerät auf eine beschriebene Vorrichtung 4 zu erweitern. An interessierte Hersteller können zudem die oben erwähnten Chips zur Herstellung von Vorrichtungen 4 oder von den beschriebenen Teilmodulen verkauft werden. Betreiber einer Dienstzentrale 2 können beispielsweise von einem Objektanbieter für jede über ihre Dienstzentrale 2 abgewickelte Transaktion, die ein Transaktionsobjekt 110 dieses Objektanbieters 7 betrifft, eine Gebühr verrechnen.
Liste der Bezugszeichen
2 Dienstzentrale
3 Telekommunikationsnetz
4 Vorrichtung 5 Auge
6 TTP-Einheit (Trusted Third Party)
7 Objektanbieter (Dienstleister)
14 Benutzerdatenbank
21 Kommunikationsmodul 22 Weiterleitungsmodul
23 Verarbeitungseinheit
24 Retinabestimmungsmodul
25 Objektanbieter- (Dienstleister-) Datenbank
26 Benutzerdatenbank 27 Objektdatenbank
41 Kommunikationsmodul
42 Transaktionsmodul
43 Verarbeitungseinheit
44 Retinabestimmungsmodul 45 Datenerstellungsmodul
46 Virtuelle retinale Anzeigevorrichtung
47 Scanner
51 Retina (Netzhaut)
52 Pupille 53 Iris (Regenbogenhaut)
54 Projizierter/reflektierter Bildpunkt 61 Augenmerkmaldatenbank (Retinadatenbank)
110 Transaktionsobjekt
120 Objektbüddaten
121 Bildsignale 130 Objektdaten
131 Objektidentifizierung
132 Objektanbieteridentifizierung
140 Benutzerdatensatz
141 Retinamuster 150 Benutzerdaten
160 Transaktionsdatensatz
170 Reflexionsdaten
171 Reflektiertes Licht
172 Gestrichelter Pfeil 180, 180' Retinamuster
190 Transaktionsbeleg
461 Augenpositionsbestimmungsmodul
471 Strahlteiler
472 Lichtempfindliches Element S1-S5 Schritte

Claims

Ansprüche
1. Transaktionsverfahren, in welchem Angaben zur Identifizierung eines Benutzers mit einer Objektidentifizierung (131) eines Transaktionsobjekts (110), beispielsweise ein Produkt oder eine Dienstleistung, in einem Transakti- onsbeleg (190) verknüpft werden und der Transaktionsbeleg (190) an eine Verarbeitungseinheit (23, 43) geleitet wird, dadurch gekennzeichnet,
dass Objektbüddaten (120), die ein genanntes Transaktionsobjekt (110) betreffen, für einen genannten Benutzer sichtbar gemacht werden,
dass Augenmerkmale (180) des genannten Benutzers bestimmt werden, während die sichtbar gemachten Objektbüddaten (120) durch den genannten Benutzer betrachtet werden, und
dass die bestimmten Augenmerkmale (180) mit Objektdaten (130), die das genannte Transaktionsobjekt (110) betreffen, im genannten Transaktionsbeleg (190) verknüpft werden, wobei die Objektdaten (130) mindestens die genannte Objektidentifizierung (131) enthalten.
2. Transaktionsverfahren gemäss Anspruch 1 , dadurch gekennzeichnet, dass genannte Objektbüddaten (120) für den genannten Benutzer sichtbar gemacht werden, indem den genannten Objektbüddaten (120) entsprechende Bildsignale (121) direkt auf die Retina (51) des genannten Benut- zers projiziert werden.
3. Transaktionsverfahren gemäss einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass genannte Augenmerkmale (180) dadurch bestimmt werden, dass von Augenteilen (51) reflektiertes Licht (171) mindestens in einem Teilgebiet dieser Augenteile (51) erfasst und einem lichtempfindlichen Element (472) zugeführt wird.
4. Transaktionsverfahren gemäss einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass genannte Augenmerkmale mindestens das Retinamuster (180) von einer Retina (51) des genannten Benutzers umfassen, dass Reflexionsdaten (170) aus erfasstem Licht (171) bestimmt werden, welches Licht (171) durch genannte Retina (51) auf Grund der projizierten genannten Büdsignale (121) reflektiert wird, und dass das Retinamuster (180) aus den bestimmten Reflexionsdaten (170) und den zugehörigen genannten Ob- jektbilddaten (120) bestimmt wird.
5. Transaktionsverfahren gemäss einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass genannte Augenmerkmale mindestens das Retinamuster (180) von einer Retina (51) des genannten Benutzers umfassen, welches Retinamuster (180) aus erfasstem Licht (171) bestimmt wird, welches Licht (171) durch genannte Retina (51) auf Grund von projiziertem Licht reflektiert wird, welches projizierte Licht andere Wellenlängen umfasst als genannte Bildsignale (121).
6. Transaktionsverfahren gemäss einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass in der Verarbeitungseinheit (23, 43) Benutzerdaten (150), die den Augenmerkmalen (180) zugeordnet sind, bestimmt werden.
7. Transaktionsverfahren gemäss einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass genannte Objektdaten (130) zusätzlich eine Objektanbieteridentifizierung (132) enthalten.
8. Transaktionsverfahren gemäss einem der Ansprüche 1 bis 7, da- durch gekennzeichnet, dass genannte Transaktionsbelege (190) über ein
Telekommunikationsnetz (3) an eine genannte Verarbeitungseinheit (23) in einer Dienstzentrale (2) übermittelt werden.
9. Transaktionsverfahren gemäss einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass genannte Objektbüddaten (120) über ein Tele- kommunikationsnetz (3) von einer Dienstzentrale (2) bezogen werden.
10. Vorrichtung (4), die dadurch gekennzeichnet ist,
dass sie Anzeigemittel (46) umfasst, um einem Benutzer Objektbüddaten (120), die ein Transaktionsobjekt (110), beispielsweise ein Produkt oder eine Dienstleistung, betreffen, sichtbar zu machen,
dass sie Mittel (47) zur Bestimmung von Augenmerkmalen (180) des genannten Benutzers umfasst, wobei diese Augenmerkmale (180) bestimmt werden, während die sichtbar gemachten Objektbüddaten (120) durch den genannten Benutzer betrachtet werden, und
dass sie Mittel (42) umfasst, um die bestimmten Augenmerkmale (180) mit Objektdaten (130), die das genannte Transaktionsobjekt (1 10) betreffen, in einem Transaktionsbeleg (190) zu verknüpfen, wobei die Objektdaten (130) mindestens eine Objektidentifizierung (131 ) enthalten, und um den Transaktionsbeleg (190) an eine Verarbeitungseinheit weiterzuleiten.
1 1. Vorrichtung (4) gemäss Anspruch 10, dadurch gekennzeichnet, dass genannte Anzeigemittel (46) eine retinale Anzeigevorrichtung umfassen, welche retinale Anzeigevorrichtung (46) genannte Objektbüddaten (120) für den genannten Benutzer sichtbar macht, indem sie den genannten Objektbüddaten
(120) entsprechende Bildsignale (121) direkt auf die Retina (51) des genannten Benutzers projiziert.
12. Vorrichtung (4) gemäss einem der Ansprüche 10 oder 1 1 , dadurch gekennzeichnet, dass genannte Mittel zur Bestimmung von Augenmerkmalen (180) einen Scanner (47) umfassen, um von Augenteilen (51 ) reflektiertes Licht (171) mindestens in einem Teilgebiet dieser Augenteile (51) zu erfassen.
13. Vorrichtung (4) gemäss Anspruch 12, dadurch gekennzeichnet, dass genannter Scanner (47) mindestens das von einer Retina (51 ) des genannten Benutzers reflektierte Licht (171) erfassen kann, welches Licht (171 ) durch genannte Retina (51 ) auf Grund der projizierten genannten Bildsignale
(121 ) reflektiert wird, und dass die Vorrichtung (4) ein Retinabestimmungsmo- dul (44) umfasst, um mindestens das Retinamuster (180) von einer genannten Retina (51) aus erfassten Reflexionsdaten (170), welche dem erfassten Licht (171) entsprechen, und den zugehörigen genannten Objektbüddaten (120) zu bestimmen.
14. Vorrichtung (4) gemäss Anspruch 12, dadurch gekennzeichnet, dass genannter Scanner (47) eine Lichtquelle umfasst, welche Lichtquelle Licht ausstrahlt, das andere Wellenlängen umfasst als genannte Bildsignale (121), und dass genannter Scanner (47) mindestens das von einer Retina (51) des genannten Benutzers reflektierte Licht (171) erfassen kann, welches Licht (171) durch genannte Retina (51) auf Grund von projiziertem Licht aus genannter Lichtquelle reflektiert wird.
15. Vorrichtung (4) gemäss einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, dass sie die genannte Verarbeitungseinheit (43) umfasst, welche Verarbeitungseinheit (43) Benutzerdaten (150), die den Augenmerkmalen (180) zugeordnet sind, bestimmt.
16. Vorrichtung (4) gemäss einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, dass sie ein Kommunikationsmodul (41) umfasst, um genannte Transaktionsbelege (190) über ein Telekommunikationsnetz (3) an eine genannte Verarbeitungseinheit (23) in einer Dienstzentrale (2) zu übermitteln.
17. Vorrichtung gemäss Anspruch 16, dadurch gekennzeichnet, dass das genannte Kommunikationsmodul (41 ) genannte Objektbüddaten (120) über ein Telekommunikationsnetz (3) von einer Dienstzentrale (2, 7) bezieht.
18. Dienstzentrale (2), welche mindestens einen Computer, mindestens ein Kommunikationsmodul (21 ) für die Datenkommunikation über minde- stens ein Telekommunikationsnetz (3) mit externen Vorrichtungen (4) sowie eine Datenbank (26) mit darin gespeicherten Benutzerdaten (150) umfasst, dadurch gekennzeichnet,
dass den genannten Benutzerdaten (150) eines Benutzers jeweils Augenmerkmale (141) dieses Benutzers zugeordnet sind, dass genannte Dienstzentrale (2) eine Verarbeitungseinheit (23) umfasst, um aus Transaktionsbelegen (190), die von genannten Vorrichtungen (4) entgegengenommen wurden, darin enthaltene Augenmerkmale eines genannten Benutzers sowie Objektdaten (130), die ein Transaktionsobjekt (110), beispielsweise ein Produkt oder eine Dienstleistung betreffen und die mindestens eine Objektidentifizierung (131) umfassen, zu entnehmen.
19. Dienstzentrale (2) gemäss Anspruch 18, dadurch gekennzeichnet, dass genannte Verarbeitungseinheit (23) ein Retinabestimmungsmodul (24) umfasst, um genannte Augenmerkmale aus genannten Transaktionsbele- gen (190) zu entnehmen, indem mindestens das Retinamuster (180') von einer Retina (51) eines genannten Benutzers aus in genannten Transaktionsbelegen (190) enthaltenen Reflexionsdaten (170) und zugehörigen Objektbüddaten (120) bestimmt wird, wobei die Objektbüddaten (120) ein genanntes Transaktionsobjekt ( 10) betreffen und wobei genannte Reflexionsdaten (170) erfasstem Licht (171) entsprechen, welches Licht (171) durch genannte Retina (51) auf Grund projizierter Bildsignale (121) reflektiert wurde, welche Bildsignale (121) den genannten Objektbüddaten (120) entsprechen.
20. Dienstzentrale (2) gemäss einem der Ansprüche 18 oder 19, dadurch gekennzeichnet, dass genannte Objektdaten (130) zusätzlich eine Ob- jektanbieteridentifizierung (132) enthalten und dass genannte Verarbeitungseinheit (23) ein Weiterleitungsmodul (22) umfasst, um genannten Augenmerkmalen zugeordnete Benutzerdaten (150) und genannte Objektidentifizierung (131) an den durch genannte Objektanbieteridentifizierung (132) identifizierten Objektanbieter (7) weiterzuleiten.
PCT/CH1999/000338 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen WO2001008056A1 (de)

Priority Applications (15)

Application Number Priority Date Filing Date Title
US10/031,340 US6973203B1 (en) 1999-07-22 1999-07-22 Transaction method and suitable device therefor
EP99928997A EP1196881B1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen
BR9917415-4A BR9917415A (pt) 1999-07-22 1999-07-22 Processo de transação e dispositivo apropriado para isso
PCT/CH1999/000338 WO2001008056A1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen
JP2001513072A JP4261102B2 (ja) 1999-07-22 1999-07-22 トランザクションの手順とそれに適した装置
AU45990/99A AU766017B2 (en) 1999-07-22 1999-07-22 Transaction method and suitable devices therefor
AT99928997T ATE231632T1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen
ES99928997T ES2191438T3 (es) 1999-07-22 1999-07-22 Procedimiento de transaccion y dispositivos apropiados para el mismo.
CN99816822A CN1361894A (zh) 1999-07-22 1999-07-22 交易方法和对此适用的装置
CA002378115A CA2378115C (en) 1999-07-22 1999-07-22 Transaction method and suitable devices therefor
DK99928997T DK1196881T3 (da) 1999-07-22 1999-07-22 Transaktionsfremgangsmåde og dertil egnede indretninger
DE59904126T DE59904126D1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen
IL147399A IL147399A (en) 1999-07-22 2001-12-30 Transaction method and devices with biometric identification
NO20020200A NO319615B1 (no) 1999-07-22 2002-01-14 Fremgangsmate ved transaksjon og dertil egnede anordninger
US11/223,966 US7292712B2 (en) 1999-07-22 2005-09-13 Transaction method and devices suitable therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH1999/000338 WO2001008056A1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10031340 A-371-Of-International 1999-07-22
US11/223,966 Continuation US7292712B2 (en) 1999-07-22 2005-09-13 Transaction method and devices suitable therefor

Publications (1)

Publication Number Publication Date
WO2001008056A1 true WO2001008056A1 (de) 2001-02-01

Family

ID=4551703

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH1999/000338 WO2001008056A1 (de) 1999-07-22 1999-07-22 Transaktionsverfahren und dafür geeignete vorrichtungen

Country Status (14)

Country Link
US (2) US6973203B1 (de)
EP (1) EP1196881B1 (de)
JP (1) JP4261102B2 (de)
CN (1) CN1361894A (de)
AT (1) ATE231632T1 (de)
AU (1) AU766017B2 (de)
BR (1) BR9917415A (de)
CA (1) CA2378115C (de)
DE (1) DE59904126D1 (de)
DK (1) DK1196881T3 (de)
ES (1) ES2191438T3 (de)
IL (1) IL147399A (de)
NO (1) NO319615B1 (de)
WO (1) WO2001008056A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10106072A1 (de) * 2001-02-09 2002-08-14 Deutsche Telekom Ag Verfahren zur Darstellung visueller Informationen in einer Telekommunikationsvorrichtung und Telekommunikationsvorrichtung
US10621432B2 (en) 2015-12-10 2020-04-14 Tendyron Corporation Methods for acquiring information using biological feature, and terminal and background server

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2378115C (en) * 1999-07-22 2007-08-14 Eric Lauper Transaction method and suitable devices therefor
US7505610B2 (en) * 2003-08-07 2009-03-17 Intelitroc Inc. Integrated portable identification and verification device
US20060064391A1 (en) * 2004-09-20 2006-03-23 Andrew Petrov System and method for a secure transaction module
IL184399A0 (en) * 2007-07-03 2007-10-31 Yossi Tsuria Content delivery system
US10042994B2 (en) 2013-10-08 2018-08-07 Princeton Identity, Inc. Validation of the right to access an object
EP3074924A4 (de) 2013-10-08 2017-11-22 Princeton Identity, Inc. Modul zur biometrischen iris-erkennung und zugangssteuerungsanordnung
US10025982B2 (en) 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
US10038691B2 (en) 2013-10-08 2018-07-31 Princeton Identity, Inc. Authorization of a financial transaction
US20180357463A1 (en) * 2014-04-10 2018-12-13 Kuo-Ching Chiang Portable Device with Fingerprint Pattern Recognition Module
EP3198913A4 (de) * 2014-09-24 2018-05-23 Princeton Identity, Inc. Steuerung der kapazität einer drahtloskommunikationsvorrichtung in einer mobilen vorrichtung mit einem biometrischen schlüssel
SG11201704097XA (en) 2014-12-03 2017-06-29 Princeton Identity Inc System and method for mobile device biometric add-on
JP2019506694A (ja) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド 生体測定分析のシステムおよび方法
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
US10445302B2 (en) * 2017-01-03 2019-10-15 International Business Machines Corporation Limiting blockchain size to optimize performance
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10902104B2 (en) 2017-07-26 2021-01-26 Princeton Identity, Inc. Biometric security systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359669A (en) * 1992-04-13 1994-10-25 Motorola, Inc. Remote retinal scan identifier
US5369415A (en) * 1992-06-29 1994-11-29 Motorola, Inc. Direct retinal scan display with planar imager
WO1998009227A1 (en) * 1996-08-29 1998-03-05 Smarttouch Tokenless biometric transaction authorization method and system
WO1998010361A1 (en) * 1996-09-04 1998-03-12 Priceline.Com Incorporated Conditional purchase offer management systems

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5467104A (en) * 1992-10-22 1995-11-14 Board Of Regents Of The University Of Washington Virtual retinal display
US6008781A (en) * 1992-10-22 1999-12-28 Board Of Regents Of The University Of Washington Virtual retinal display
GB9808024D0 (en) * 1998-04-17 1998-06-17 Ncr Int Inc Data processing apparatus including an output display
WO2001008414A1 (de) * 1999-07-22 2001-02-01 Swisscom Mobile Ag Verfahren und geeignete vorrichtungen, um nutzinformationen betreffend betrachtete objekte zu liefern
CA2378115C (en) * 1999-07-22 2007-08-14 Eric Lauper Transaction method and suitable devices therefor
US6803687B2 (en) * 2002-09-06 2004-10-12 Asmo Co., Ltd. Electric motor having speed reducing mechanism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359669A (en) * 1992-04-13 1994-10-25 Motorola, Inc. Remote retinal scan identifier
US5369415A (en) * 1992-06-29 1994-11-29 Motorola, Inc. Direct retinal scan display with planar imager
WO1998009227A1 (en) * 1996-08-29 1998-03-05 Smarttouch Tokenless biometric transaction authorization method and system
WO1998010361A1 (en) * 1996-09-04 1998-03-12 Priceline.Com Incorporated Conditional purchase offer management systems

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10106072A1 (de) * 2001-02-09 2002-08-14 Deutsche Telekom Ag Verfahren zur Darstellung visueller Informationen in einer Telekommunikationsvorrichtung und Telekommunikationsvorrichtung
US10621432B2 (en) 2015-12-10 2020-04-14 Tendyron Corporation Methods for acquiring information using biological feature, and terminal and background server

Also Published As

Publication number Publication date
IL147399A (en) 2007-06-17
NO319615B1 (no) 2005-09-05
US20060008125A1 (en) 2006-01-12
DK1196881T3 (da) 2003-05-05
BR9917415A (pt) 2002-04-09
JP2003505171A (ja) 2003-02-12
EP1196881A1 (de) 2002-04-17
JP4261102B2 (ja) 2009-04-30
EP1196881B1 (de) 2003-01-22
CA2378115C (en) 2007-08-14
DE59904126D1 (de) 2003-02-27
NO20020200L (no) 2002-02-07
CA2378115A1 (en) 2001-02-01
US7292712B2 (en) 2007-11-06
CN1361894A (zh) 2002-07-31
ATE231632T1 (de) 2003-02-15
AU4599099A (en) 2001-02-13
US6973203B1 (en) 2005-12-06
NO20020200D0 (no) 2002-01-14
ES2191438T3 (es) 2003-09-01
AU766017B2 (en) 2003-10-09

Similar Documents

Publication Publication Date Title
EP1196881B1 (de) Transaktionsverfahren und dafür geeignete vorrichtungen
DE69913929T2 (de) Gesichertes Bezahlungsverfahren
DE69630713T2 (de) Identifikationssystem ohne identitätsmarker
EP1240631B1 (de) Zahlungstransaktionsverfahren und zahlungstransaktionssystem
US5611052A (en) Lender direct credit evaluation and loan processing system
US20200134758A1 (en) Systems and methods for secure communication
EP1285409B1 (de) Biometrisches identifizierungs- und authentifizierungsverfahren
US20120030108A1 (en) System and method for the remote identification and verification of a client's identity during the provision of financial services
EP1513120A2 (de) Verfahren zum Initiieren eines Bezahlvorgangs für Produkte und System zum Durchführen eines Bezahlvorgangs
EP1186148A1 (de) Übermittlung und darstellung von videodaten
CA2832989C (en) System and method for automating insurance quotation processes
EP3455765A1 (de) Verfahren zur fernidentifizierung einer physischen person in asynchronem modus, zur ausgabe einer fortgeschrittenen elektronischen signatur, qualifizierten elektronischen signatur oder digitalen identität
EP1198957A1 (de) Verfahren und geeignete vorrichtungen, um nutzinformationen betreffend betrachtete objekte zu liefern
WO2000079715A1 (de) Verfahren, vorrichtung für die erfassung von daten über die betrachtung von videoinformationen, und die weiterleitung dieser daten zu einer zentralen datenverarbeitungsanlage
WO2001058160A1 (de) System und verfahren zur verbreitung von bildobjekten
CN113221529A (zh) 事件调查方法和装置
RU2235359C2 (ru) Способ транзакции и устройство для осуществления способа
WO2014125342A1 (en) Managing objects
CN115983983A (zh) 一种业务办理与审核方法、系统、可读存储介质及设备
DE60105592T2 (de) Verfahren und vorrichtung zur käuferidentifikation
JP2002189854A (ja) ローン契約取次及び出金方法並びにそのシステム
AU2014101254A4 (en) Managing objects
DE10148673A1 (de) Verfahren und System zum elektronischen Bezahlen
DE19633046A1 (de) Multimediales Kommunikationssystem
CN114613367A (zh) 基于声音识别的同步录音录像方法、装置以及存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AL AM AT AT AU AZ BA BB BG BR BY CA CH CN CU CZ CZ DE DE DK DK EE EE ES FI FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SK SL TJ TM TR TT UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SL SZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1999928997

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: IN/PCT/2001/01674/MU

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2378115

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 45990/99

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2002/00350

Country of ref document: ZA

Ref document number: 200200350

Country of ref document: ZA

WWE Wipo information: entry into national phase

Ref document number: 10031340

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 99816822X

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2002 2002104576

Country of ref document: RU

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 1999928997

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWG Wipo information: grant in national office

Ref document number: 1999928997

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 45990/99

Country of ref document: AU