DE19918633A1 - Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen - Google Patents

Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen

Info

Publication number
DE19918633A1
DE19918633A1 DE19918633A DE19918633A DE19918633A1 DE 19918633 A1 DE19918633 A1 DE 19918633A1 DE 19918633 A DE19918633 A DE 19918633A DE 19918633 A DE19918633 A DE 19918633A DE 19918633 A1 DE19918633 A1 DE 19918633A1
Authority
DE
Germany
Prior art keywords
image
light
light component
extraneous light
extraneous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19918633A
Other languages
German (de)
Inventor
Christoph Maggioni
Hans Roettger
Wolfgang Radlik
Juergen Simmerer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19918633A priority Critical patent/DE19918633A1/en
Publication of DE19918633A1 publication Critical patent/DE19918633A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Position Input By Displaying (AREA)

Abstract

The procedure involves taking a first image of the object in its own light first and with part extraneous light. A second image is taken of the object with a second own light and the extraneous light. The own light in the first or second image is zero. A third image is determined, from the first and second images, which has a reduced extraneous light. The object is recognized in the third image. The third image is determined with a lookup table from the first and a second images. The first and/or second own light portions are modulated with an intensity modulation or a modulation over time. The first and /or own light portion light waves are in a non-visible spectral range for at least one wavelength and are created by an infrared light source.

Description

Die Erfindung betrifft ein Verfahren und eine Anordnung zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils.The invention relates to a method and an arrangement for Reduction of one acting on an object to be recognized Extraneous light component.

Aus [1] sind ein Verfahren und eine Anordnung zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich bekannt.[1] shows a method and an arrangement for detection of an object in one of waves in the invisible Spectral range illuminated area known.

Im Rahmen der Mensch-Maschine-Interaktion ist es von Vorteil, wenn mittels eines Rechners verschiedene Gliedmaßen, beispielsweise Kopf oder Hand, oder auch abstrakte Gegenstände, beispielsweise ein Zeigestab, als Bedienelemente zur Interaktion erkannt werden. Erfolgt diese Erkennung unter Echtzeitbedingungen, so sind fließende Bewegungen von Gliedmaßen und Objekten detektierbar. Dabei ist es eine mögliche Anwendung (siehe [1] oder [2]), daß ein Benutzer auf einer projizierten graphischen Oberfläche mit seinen Bewegungen (z. B. berührungslos) Eingaben durchführt, indem er mit einem Finger auf virtuelle Bedienelemente, bspw. Schalter oder Taster, deutet. Solch eine Anordnung zur Interaktion wird auch als ein Virtual Touchscreen bezeichnet.In the context of human-machine interaction, it is advantageous if different limbs by means of a computer, for example head or hand, or abstract Objects, such as a pointer, as controls be recognized for interaction. This detection takes place under Real time conditions, so are flowing movements of Limbs and objects detectable. It is one possible application (see [1] or [2]) that a user on a projected graphic surface with its Performs movements (e.g. contactless) by entering with one finger on virtual controls, e.g. switches or button, points. Such an arrangement for interaction is also referred to as a virtual touchscreen.

Nun ist es bei der Projektion besagter Oberfläche ein Problem, daß durch einen Fremdlichteinfluß (Fremdlichtanteil) in Form des Tageslichts oder zusätzlicher Lichtquellen, z. B. Deckenbeleuchtung, das projizierte Bild gestört wird. Dadurch verschlechtert sich zum einen die Projektion selbst, zum anderen nimmt die Qualität der Erkennung des Zeigeobjekts in der aufgenommenen Projektion (siehe [1]), z. B. durch störende Schatteneffekte, deutlich ab. Now it is in the projection of said surface Problem that due to the influence of extraneous light (extraneous light component) in the form of daylight or additional light sources, e.g. B. Ceiling lighting, the projected image is disturbed. Thereby on the one hand, the projection deteriorates, on the other others detract from the quality of the recognition of the pointing object the recorded projection (see [1]), e.g. B. by disturbing Shadow effects, significantly decreased.  

Die Aufgabe der Erfindung besteht darin, einen auf eine Erkennung eines Objekts einwirkenden Fremdlichtanteil signifikant zu reduzieren.The object of the invention is one on one Detection of an external light component acting on an object to significantly reduce.

Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.This task is carried out according to the characteristics of the independent Claims resolved. Developments of the invention result itself from the dependent claims.

Zur Lösung der Aufgabe wird ein Verfahren zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils angegeben, bei dem ein erstes Bild mit dem Objekt, einem ersten Eigenlichtanteil und dem Fremdlichtanteil aufgenommen wird. Ein zweites Bild wird mit dem Objekt, einem zweiten Eigenlichtanteil und dem Fremdlichtanteil aufgenommen. Anhand des ersten Bildes und des zweiten Bildes wird ein drittes Bild mit deutlich reduziertem Fremdlichtanteil bestimmt.To solve the problem, a method for reducing a portion of extraneous light acting on an object to be recognized specified, in which a first image with the object, a first inherent light component and the extraneous light component added becomes. A second picture is made with the object, a second Own light component and the extraneous light component added. Based the first picture and the second picture become a third Image determined with a significantly reduced amount of extraneous light.

Hierbei sei angemerkt, daß ein Objekt vorzugsweise als ein aufgenommenes Objekt, ggf. auch eine Szene mit mehreren Objekten, verstanden wird. Insbesondere kann das Objekt auch Teil einer Projektion, z. B. ein virtueller Schalter der Bedienoberfläche des Virtual Touchscreens, sein.It should be noted here that an object is preferably a recorded object, possibly also a scene with several Objects, is understood. In particular, the object can also Part of a projection, e.g. B. a virtual switch of User interface of the virtual touchscreen.

Durch die Reduktion des Fremdlichtanteils wird es möglich, auch bei starker Lichteinstrahlung, z. B. Sonnenlicht oder zusätzliche Beleuchtung, das Objekt weitgehend ohne störende Effekte, z. B. Schatteneffekte, zu identifizieren.By reducing the amount of extraneous light, it becomes possible even with strong light, e.g. B. sunlight or additional lighting, the object largely without distracting Effects, e.g. B. to identify shadow effects.

Eine Weiterbildung besteht darin, daß eine Erkennung des Objekts anhand des dritten Bildes durchgeführt wird.A further development is that a detection of the Object is performed based on the third image.

Eine andere Weiterbildung besteht darin, daß der erste Eigenlichtanteil oder der zweite Eigenlichtanteil gleich Null ist.Another development is that the first Own light component or the second own light component equal to zero is.

Auch ist es eine Weiterbildung, daß die Reduktion des Fremdlichtanteils nahezu vollständig erfolgt. Je nach Anwendung kann ein mehr oder minder großer Rest Fremdlichtanteil als nichtstörend toleriert werden.It is also a further training that the reduction of the Extraneous light portion almost completely. Depending on  Application can be a more or less large rest Proportion of extraneous light can be tolerated as non-disturbing.

Eine Ausgestaltung besteht darin, daß das dritte Bild mit Hilfe einer Lookup-Tabelle aus dem ersten Bild und dem zweiten Bild ermittelt wird.One embodiment is that the third picture with Using a lookup table from the first picture and the second image is determined.

Ferner ist es eine Weiterbildung, daß eine Modulation des ersten Eigenlichtanteils und/oder des zweiten Eigenlichtanteils durchgeführt wird. Dabei wird insbesondere anhand der Modulation, dem ersten Bild und dem zweiten Bild das dritte Bild bestimmt. Die Modulation kann eine Intensitätsmodulation oder eine Modulation über die Zeit darstellen.It is also a further development that a modulation of the first natural light component and / or the second Own light portion is carried out. In particular, based on the modulation, the first image and the second image the third picture determines. The modulation can be one Intensity modulation or a modulation over time represent.

Eine zusätzliche Weiterbildung besteht darin, daß der erste Eigenlichtanteil und/oder der zweite Eigenlichtanteil Wellen in einem nichtsichtbaren Spektralbereich sind. Insbesondere können diese Wellen im nichtsichtbaren Spektralbereich von mindestens einer Infrarotlichtquelle erzeugt werden.An additional training is that the first Own light component and / or the second own light component waves are in an invisible spectral range. In particular can these waves in the invisible spectral range of at least one infrared light source are generated.

Eine Weiterbildung besteht in der Verwendung des beschriebenen Verfahrens in einem Gerät, anhand dessen eine Bedienung durch Gesten ermöglicht wird (Virtual Touchscreen).Further training consists in the use of the described method in a device, based on which one Operation by gestures is made possible (virtual touchscreen).

Zur Lösung der Aufgabe wird ferner eine Anordnung zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils angegeben, bei der eine Prozessoreinheit vorgesehen ist, die derart eingerichtet ist, daß
To achieve the object, an arrangement for reducing an amount of extraneous light acting on an object to be recognized is also specified, in which a processor unit is provided which is set up in such a way that

  • a) ein erstes Bild mit dem Objekt, einem ersten Eigenlichtanteil und dem Fremdlichtanteil aufnehmbar ist;a) a first image with the object, a first Own light component and the extraneous light component can be recorded is;
  • b) ein zweites Bild mit dem Objekt, einem zweiten Eigenlichtanteil und dem Fremdlichtanteil aufnehmbar ist; b) a second picture with the object, a second Own light component and the extraneous light component can be recorded is;  
  • c) anhand des ersten Bildes und des zweiten Bildes ein drittes Bild ermittelbar ist, das einen reduzierten Fremdlichtanteil aufweist.c) based on the first image and the second image third image can be determined, which is a reduced one Has extraneous light component.

Diese Anordnung ist insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner vorstehend erläuterten Weiterbildungen.This arrangement is particularly suitable for implementation of the method according to the invention or one of its above explained further training.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung dargestellt und erläutert.Exemplary embodiments of the invention are described below shown and explained in the drawing.

Es zeigenShow it

Fig. 1 ein Blockdiagramm mit symbolischen Schritten zur Reduktion eines Fremdlichtanteils; Fig. 1 is a block diagram of symbolic steps for reducing an ambient light component;

Fig. 2 zwei Bilder eines Objekts mit jeweils einem Fremdlichtanteil und ein Bild des Objekts mit reduziertem Fremdlichtanteil dargestellt; FIG. 2 shows two images of an object represented with a respective portion of extraneous light and an image of the object with reduced extraneous light portion;

Fig. 3 ein Diagramm, das eine Veränderung einer Intensität über die Zeit darstellt; FIG. 3 is a diagram illustrating a change in intensity over time;

Fig. 4 ein Diagramm, das Modulationsmöglichkeiten für eine Detektionszeit darstellt; Fig. 4 is a diagram illustrating modulation options for a detection time;

Fig. 5 eine Diagramm, das eine weitere Modulationsmöglichkeit für die Detektionszeit veranschaulicht; Fig. 5 is a diagram illustrating a further possibility for the modulation detection time;

Fig. 6 eine Anordnung zur berührungslosen Interaktion (Virtual Touchscreen); Fig. 6 shows an arrangement for the contactless interaction (virtual touchscreen);

Fig. 7 eine Prozessoreinheit. Fig. 7 is a processor unit.

In Fig. 1 ist ein Blockdiagramm mit (symbolischen) Schritten zur Reduktion eines Fremdlichtanteils dargestellt. In einem Schritt 101 erfolgt eine Beleuchtung eines Objekts bzw. einer Szene mit einem ersten Eigenlichtanteil. Dabei kann insbesondere eine Intensität als kennzeichnend für den Eigenlichtanteil verwendet werden. In einem Schritt 102 erfolgt die Aufnahme des beleuchteten Objekts bzw. der beleuchteten Szene zu einem Bild 1. In einem Schritt 103 wird das Objekt bzw. die Szene mit einem zweiten Eigenlichtanteil beleuchtet und das Objekt bzw. die Szene in einem Schritt 104 in Form eines Bildes 2 aufgenommen. Insbesondere kann sich der zweite Eigenlichtanteil von dem ersten Eigenlichtanteil dadurch unterscheiden, daß eine den jeweiligen Eigenlichtanteil verursachende Lichtquelle in einem von beiden Fällen abgeschaltet ist. Dadurch ergibt sich ein im Hinblick auf die Lichtintensität großer Unterschied zwischen dem ersten Eigenlichtanteil und dem zweiten Eigenlichtanteil. Dieser Unterschied erweist sich bei der nachfolgenden Reduktion des Fremdlichtanteils als vorteilhaft. Die beiden Aufnahmen Bild 1 und Bild 2 werden zur Reduktion des Fremdlichtanteils verarbeitet (vgl. Block 105). Es ergibt sich ein Bild 3 (Block 106), das das Objekt bzw. die Szene mit reduziertem Fremdlichtanteil darstellt.In Fig. 1 a block diagram (symbolic) steps is shown for reducing an external light component. In step 101 , an object or a scene is illuminated with a first intrinsic light component. In particular, an intensity can be used to characterize the proportion of natural light. In step 102 , the illuminated object or scene is recorded to form an image 1. In step 103 , the object or scene is illuminated with a second intrinsic light component and the object or scene in step 104 in the form of a Picture 2 taken. In particular, the second inherent light component can differ from the first inherent light component in that a light source causing the respective inherent light component is switched off in one of the two cases. This results in a large difference in terms of light intensity between the first component and the second component. This difference proves to be advantageous in the subsequent reduction in the proportion of extraneous light. The two images Figure 1 and Image 2 are processed to reduce the amount of extraneous light (cf. block 105 ). The result is an image 3 (block 106 ) which represents the object or the scene with a reduced proportion of extraneous light.

Nach Aufnahme der beiden Bilder Bild 1 und Bild 2 liegt somit folgende Situation vor:
After taking the two pictures, picture 1 and picture 2, the situation is as follows:

Bild 1: Eigenlicht mit Intensität 1, Fremdlicht an:
Intensität Bild 1 = F(IntensitätFremdlicht, Intensität 1Eigenlicht)
Figure 1: Eigenlight with intensity 1, extraneous light on:
Intensity image 1 = F (intensity of extraneous light , intensity 1 natural light )

Bild 2: Eigenlicht mit Intensität 2, Fremdlicht an:
Intensität Bild 2 = F(IntensitätFremdlicht, IntensitätEigenlicht)
Figure 2: Eigenlight with intensity 2, extraneous light on:
Intensity image 2 = F (intensity of external light , intensity of natural light )

Entspricht Intensität 2 der ausgeschalteten Lichtquelle, so stellt Bild 2 im wesentlichen eine Aufnahme des Objekts bzw. der Szene unter (alleinigem) Einfluß des Fremdlichts dar.If intensity 2 corresponds to the switched-off light source, then picture 2 essentially represents a picture of the object or the scene under the (sole) influence of the ambient light.

Bei der Operation
During the operation

F(IntensitätFremdlicht, IntensitätEigenlicht)
F (intensity of extraneous light , intensity of intrinsic light )

sind insbesondere Nichtlinearität und Übersteuerungseffekte der Bildaufnahmevorrichtung zu beachten. Gesucht wird nun eine Funktion G, anhand derer aus Bild 1 und Bild 2 das Bild 3 ermittelbar ist, welches Bild 3 das Objekt bzw. die Szene um den reduzierten Fremdlichtanteil darstellt.In particular, the non-linearity and overdrive effects of the image recording device must be taken into account. We are now looking for a function G which can be used to determine image 3 from image 1 and image 2, image 3 representing the object or scene with the reduced amount of extraneous light.

Damit gilt:
So:

Bild 3: Nur Einfluß des Eigenlichts:
Intensität Bild 3 = G (Intensität Bild 1, Intensität Bild 2).
Image 3: Influence of natural light only:
Intensity image 3 = G (intensity image 1 , intensity image 2 ).

Eine Möglichkeit zur Bestimmung der Funktion G besteht darin, daß die Intensitäten durch Grauwerte in einem Bereich von 0 bis 255 dargestellt werden. Damit ist die Funktion G zweckmäßig in Form einer Lookup-Tabelle realisierbar.One way of determining the function G is to that the intensities by gray values in a range of 0 to 255 are displayed. This is the function G usable in the form of a lookup table.

In Fig. 2 sind zwei Bilder (201 und 202) eines Objekts mit jeweils einem Fremdlichtanteil und ein Bild (203) des Objekts mit reduziertem Fremdlichtanteil dargestellt. Eine Teilfigur 201 zeigt das Objekt 204 unter Einfluß des ersten Eigenlichtanteils und des Fremdlichtanteils. Dabei entsteht ein Schatteneffekt 205, verursacht durch den Fremdlichtanteil. In einer Teilfigur 202 ist ein verschmiertes Objekts 206 dargestellt. Hier erfolgt die Beleuchtung mit dem zweiten Eigenlichtanteil, wobei in dem gezeigten Fall der zweite Eigenlichtanteil gleich Null ist. Somit ist das Objekt in Teilfigur 202 aufgenommen unter Einfluß des Fremdlichtanteils. Eine Teilfigur 203 zeigt Bild 3, das ein Objekt 207 darstellt. Dieses Darstellung ist um den Fremdlichtanteil (nahezu vollständig) reduziert.In FIG. 2, two images (201 and 202) of an object are shown, each with an external light component and an image (203) of the object with reduced extraneous light portion. A partial figure 201 shows the object 204 under the influence of the first intrinsic light component and the extraneous light component. This creates a shadow effect 205 , caused by the extraneous light component. A smeared object 206 is shown in a partial figure 202. Here the lighting takes place with the second inherent light component, in the case shown the second inherent light component is equal to zero. The object is thus recorded in sub-figure 202 under the influence of the extraneous light component. A partial figure 203 shows image 3, which represents an object 207 . This representation is reduced by the amount of extraneous light (almost completely).

Fig. 3 zeigt einen Verlauf einer Lichtintensität LI über einer Zeitachse t. Der oben beschriebene Zusammenhang des vorgegebenen ersten Eigenlichtanteils und des zweiten Eigenlichtanteils (= 0), wird in Form einer Detektionszeit 301 für das Bild 1 und einer Detektionszeit 302 für das Bild 2 dargestellt. So ist für Bild 1 der Eigenlichtanteil von einer Lichtintensität 303, der Eigenlichtanteil für die Aufnahme von Bild 2 = 0. Fig. 3 is a graph showing a light intensity LI on a time axis t. The above-described relationship between the predetermined first inherent light component and the second inherent light component (= 0) is shown in the form of a detection time 301 for image 1 and a detection time 302 for image 2. For example, the intrinsic light portion of a light intensity 303 for image 1, the intrinsic light portion for the image 2 is 0.

Die Modulation der Lichtintensität LI kann auf verschiedene Arten erfolgen:
The light intensity LI can be modulated in different ways:

  • - Elektronisch (beispielsweise Spannungs- bzw. Stromversorgung der Lichtquelle),- Electronic (e.g. voltage or Power supply of the light source),
  • - mechanisch (beispielsweise rotierende Scheibe mit Löchern) oder- mechanical (e.g. rotating disc with holes) or
  • - elektromechanisch bzw. elektro-optisch (beispielsweise optische Modulatoren, Polarisatoren).- Electromechanical or electro-optical (for example optical modulators, polarizers).

Diese Lichtintensität kann in Form üblicher Signalverläufe vorgegeben werden, z. B. Rechteck-, Dreieck-, Sägezahn-, Treppen- oder Stufenverlauf.This light intensity can take the form of conventional signal profiles be specified, e.g. B. rectangular, triangular, sawtooth, Steps or steps.

In Fig. 4 ist ein Diagramm gezeigt, das Modulations­ möglichkeiten für eine Detektionszeit darstellt. Dazu ist wiederum der Verlauf der Lichtintensität LI über der Zeit t dargestellt. Weiterhin sind eine Detektionszeit 401 für das Bild 1 und eine Detektionszeit 402 für das Bild 2 dargestellt. Die Detektionszeit 401 ist wesentlich kürzer als die Detektionszeit 402. Weiterhin befindet sich die Detektionszeit 401 in einer Phase, in der die Lichtintensität LI niederwertig ist, wo hingegen die Detektionszeit 402 in dem periodisch rechteckigen Signal der Lichtintensität LI in etwa über eineinhalb Perioden andauert. FIG. 4 shows a diagram which shows modulation possibilities for a detection time. For this purpose, the course of the light intensity LI is shown over time t. Furthermore, a detection time 401 for image 1 and a detection time 402 for image 2 are shown. The detection time 401 is significantly shorter than the detection time 402 . Furthermore, the detection time 401 is in a phase in which the light intensity LI is low, whereas the detection time 402 in the periodically rectangular signal of the light intensity LI lasts for approximately one and a half periods.

In Fig. 5 ist ein Diagramm dargestellt, das eine weitere Modulationsmöglichkeit für Detektionszeiten veranschaulicht. Weder ist der gepulste Verlauf der Lichtintensität LI über der Zeit t dargestellt. Weiterhin sind eine Detektionszeit 501 für Bild 1 und eine Detektionszeit 502 für Bild 2 dargestellt. Die Länge der Detektionszeiten 501 und 502 sind in etwa gleich. Durch Bestimmung eines Zeitpunktes für den Beginn der Detektionszeit t1 relativ zu den Pulsen der Lichtintensität LI erfolgt eine gezielte Phasenverschiebung zwischen Beleuchtung mit Eigenlichtanteil und Detektion. So wird in Fig. 5 von einem Zeitpunkt t2 bis zu einem Zeitpunkt t3 ein hoher Anteil an Fremdlicht aufgezeichnet, während von einem Zeitpunkt t1 bis zu einem Zeitpunkt t4 ein hoher Anteil an Eigenlicht aufgezeichnet wird. Eines Synchronisation zwischen Lichtquelle und Detektionseinheit (Videokamera) kann bevorzugt durch geeignete Hardware oder entsprechende Auswerteverfahren (Software) umgesetzt werden. FIG. 5 shows a diagram which illustrates a further possibility of modulation for detection times. The pulsed course of the light intensity LI over time t is not shown. Furthermore, a detection time 501 for image 1 and a detection time 502 for image 2 are shown. The length of the detection times 501 and 502 are approximately the same. By determining a point in time for the start of the detection time t1 relative to the pulses of the light intensity LI, a targeted phase shift takes place between the lighting with its own light component and the detection. 5 is so to a time t3 recorded a high proportion of external light from a time point t2, while up to a time t4 is recorded a high proportion of self-light from a time point t1 in Fig.. A synchronization between light source and detection unit (video camera) can preferably be implemented using suitable hardware or corresponding evaluation methods (software).

Die beschriebenen Modulationsmöglichkeiten stellen nur eine Auswahl und keine Einschränkung dar. Weitere Modulationsmöglichkeiten, die sich z. B. aus Kombinationen der aufgeführten Möglichkeiten ergeben, können ebenfalls eingesetzt werden.The modulation options described represent only one Selection and not limitation. Others Modulation possibilities, which z. B. from combinations of opportunities listed can also be used.

In Fig. 6 ist eine Anordnung eines Virtual-Touchscreens beschrieben. Eine Interaktionsfläche (graphische Bedienoberfläche BOF) wird auf einen vorgebbaren Bereich, hier ein Projektionsdisplay PD (Interaktionsfläche), abgebildet. Das Projektionsdisplay PD ersetzt dabei einen konventionellen Bildschirm. Die Eingabe erfolgt durch direktes Zeigen mit der Interaktionskomponente, der Hand H auf die Bedienoberfläche BOF. Dadurch können beispielsweise Tastatur, Maus, Touchscreen oder Digitalisiertablett konventioneller Systeme ersetzt werden. Die Erkennung der Gesten und die Positionierung innerhalb der Bedienoberfläche BOF werden durch ein videobasiertes System (Gestik-Computer), das in der Lage ist, Projektion und Form z. B. der menschlichen Hand in Echtzeit zu erkennen und zu verfolgen, realisiert. Ferner wird das Projektionsdisplay PD mit Infrarotlicht beleuchtet. Die Infrarotlichtquelle IRL kann vorteilhaft mittels Infrarotleuchtdioden ausgeführt sein. Eine Kamera K, die vorzugsweise mit einem speziellen Infrarotfilter IRF, das im infraroten Spektralbereich lichtdurchlässig ist, ausgestaltet ist, nimmt das Projektionsdisplay PD auf. Mit einem Projektor P, der von einem Rechner R gesteuert wird, wird die Bedienoberfläche BOF auf das Projektionsdisplay PD abgebildet. Die Bedienoberfläche BOF kann dabei ausgestaltet sein als ein Menüsystem auf einem Monitor des Rechners R. Ein Mauszeiger MZ wird durch die Hand H des Benutzers bewegt. Anstelle der Hand H kann als Interaktionskomponente auch ein Zeigestab verwendet werden.An arrangement of a virtual touchscreen is described in FIG . An interaction area (graphical user interface BOF) is mapped onto a predefinable area, here a projection display PD (interaction area). The PD projection display replaces a conventional screen. The input is made by pointing directly with the interaction component, hand H, to the BOF user interface. This means that, for example, the keyboard, mouse, touchscreen or digitizing tablet of conventional systems can be replaced. The recognition of the gestures and the positioning within the user interface BOF are carried out by a video-based system (gesture computer), which is able to project and shape e.g. B. to recognize and track the human hand in real time. Furthermore, the projection display PD is illuminated with infrared light. The infrared light source IRL can advantageously be designed using infrared light-emitting diodes. The projection display PD receives a camera K, which is preferably designed with a special infrared filter IRF, which is transparent to light in the infrared spectral range. With a projector P, which is controlled by a computer R, the user interface BOF is mapped onto the projection display PD. The user interface BOF can be designed as a menu system on a monitor of the computer R. A mouse pointer MZ is moved by the hand H of the user. Instead of the hand H, a pointer can also be used as an interaction component.

Soll auf der Bedienoberfläche BOF die mit der Betätigung des Feldes F assoziierte Funktion aufgerufen werden, so wird die Hand H zu dem Feld F bewegt, der Mauszeiger MZ folgt dabei der Hand H. Verharrt die Hand H für eine vorgebbare Zeitdauer über dem Feld F, so wird die mit dem Feld F assoziierte Funktion auf dem Rechner R ausgelöst.If the BOF user interface is to be activated when the Field F associated function are called, so the Hand H moves to field F, mouse pointer MZ follows the hand H. The hand H remains for a predefinable period of time above field F, the field associated with field F becomes Function triggered on the computer R.

Die Projektion kann - wie Fig. 6 dargestellt - von oben nach unten erfolgen. Alternativ kann die Projektion auch von unten nach oben bzw. in horizontaler Richtung (insbesondere schräg aufwärts bzw. abwärts) erfolgen. Die Bedienoberfläche ist dann entsprechend horizontal (wie in Fig. 6) oder vertikal (schräg) ausgeführt.As shown in FIG. 6, the projection can take place from top to bottom. Alternatively, the projection can also take place from bottom to top or in the horizontal direction (in particular diagonally upwards or downwards). The user interface is then designed horizontally (as in FIG. 6) or vertically (obliquely).

In Fig. 7 ist eine Prozessoreinheit PRZE dargestellt. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher SPE und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z. B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner. In Fig. 7 is a processor unit PRZE. The processor unit PRZE comprises a processor CPU, a memory SPE and an input / output interface IOS, which is used in different ways via an interface IFC: an output is visible on a monitor MON and / or on a printer via a graphic interface PRT issued. An entry is made using a mouse MAS or a keyboard TAST. The processor unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS. Furthermore, additional components can be connected to the data bus BUS, e.g. B. additional memory, data storage (hard disk) or scanner.

Literaturverzeichnis:
[1] DE 197 08 240 A1, Veröffentlichungsdatum: 10.09.1998
[2] US 5, 528, 263
Bibliography:
[1] DE 197 08 240 A1, publication date: September 10, 1998
[2] US 5, 528, 263

Claims (12)

1. Verfahren zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils,
  • a) bei dem ein erstes Bild mit dem Objekt, einem ersten Eigenlichtanteil und dem Fremdlichtanteil aufgenommen wird;
  • b) bei dem ein zweites Bild mit dem Objekt, einem zweiten Eigenlichtanteil und dem Fremdlichtanteil aufgenommen wird;
  • c) bei dem anhand des ersten Bildes und des zweiten Bildes ein drittes Bild ermittelt wird, das einen reduzierten Fremdlichtanteil aufweist.
1. Method for reducing an amount of extraneous light acting on an object to be recognized,
  • a) in which a first image is recorded with the object, a first intrinsic light component and the extraneous light component;
  • b) in which a second image is recorded with the object, a second intrinsic light component and the extraneous light component;
  • c) in which, based on the first image and the second image, a third image is determined which has a reduced proportion of extraneous light.
2. Verfahren nach Anspruch 1, bei dem eine Erkennung des Objektes in dem dritten Bild durchgeführt wird.2. The method according to claim 1, in which a detection of the object in the third image is carried out. 3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der erste oder der zweite Eigenlichtanteil gleich Null ist.3. The method according to any one of the preceding claims, where the first or the second natural light component is the same Is zero. 4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Reduktion des Fremdlichtanteils nahezu vollständig ist.4. The method according to any one of the preceding claims, where the reduction in the amount of extraneous light is almost is complete. 5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das dritte Bild mit Hilfe einer Lookup-Tabelle aus dem ersten Bild und dem zweiten Bild ermittelt wird.5. The method according to any one of the preceding claims, in which the third image using a lookup table is determined from the first image and the second image. 6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem eine Modulation des ersten Eigenlichtanteils und/oder des zweiten Eigenlichtanteils durchgeführt wird.6. The method according to any one of the preceding claims, in which a modulation of the first inherent light component and / or the second natural light component is carried out. 7. Verfahren nach Anspruch 6, bei dem mittels Modulation, erstem Bild und zweitem Bild das dritte Bild bestimmt wird. 7. The method according to claim 6, in which by means of modulation, first picture and second picture the third picture is determined.   8. Verfahren nach Anspruch 6 oder 7, bei dem die Modulation eine Intensitätsmodulation oder eine Modulation über die Zeit darstellt.8. The method according to claim 6 or 7, where the modulation is an intensity modulation or represents a modulation over time. 9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der erste Eigenlichtanteil und/oder der zweite Eigenlichtanteil Wellen bei mindestens einer Wellenlänge in einem nichtsichtbaren Spektralbereich umfaßt.9. The method according to any one of the preceding claims, in which the first portion of natural light and / or the second Natural light component waves at at least one wavelength in an invisible spectral range. 10. Verfahren nach Anspruch 9, bei dem die Wellen im nichtsichtbaren Spektralbereich von mindestens einer Infrarotlichtquelle erzeugt werden.10. The method according to claim 9, where the waves in the invisible spectral range of at least one infrared light source are generated. 11. Verfahren nach einem der vorhergehenden Ansprüche zur Verwendung in einem Gerät, anhand dessen eine Bedienung durch Gesten ermöglicht wird (Virtual Touchscreen).11. The method according to any one of the preceding claims for use in a device based on which one Operation by gestures is made possible (Virtual Touchscreen). 12. Anordnung zur Reduktion eines auf ein zu erkennendes Objekt einwirkenden Fremdlichtanteils mit einer Prozessoreinheit, die derart eingerichtet ist, daß
  • a) ein erstes Bild mit dem Objekt, einem ersten Eigenlichtanteil und dem Fremdlichtanteil aufnehmbar ist;
  • b) ein zweites Bild mit dem Objekt, einem zweiten Eigenlichtanteil und dem Fremdlichtanteil aufnehmbar ist;
  • c) anhand des ersten Bildes und des zweiten Bildes ein drittes Bild ermittelbar ist, das einen reduzierten Fremdlichtanteil aufweist.
12. Arrangement for reducing an external light component acting on an object to be recognized with a processor unit, which is set up in such a way that
  • a) a first image with the object, a first intrinsic light component and the extraneous light component can be recorded;
  • b) a second image with the object, a second intrinsic light component and the extraneous light component can be recorded;
  • c) on the basis of the first image and the second image, a third image can be determined which has a reduced proportion of extraneous light.
DE19918633A 1999-04-23 1999-04-23 Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen Withdrawn DE19918633A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19918633A DE19918633A1 (en) 1999-04-23 1999-04-23 Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19918633A DE19918633A1 (en) 1999-04-23 1999-04-23 Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen

Publications (1)

Publication Number Publication Date
DE19918633A1 true DE19918633A1 (en) 2000-11-02

Family

ID=7905717

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19918633A Withdrawn DE19918633A1 (en) 1999-04-23 1999-04-23 Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen

Country Status (1)

Country Link
DE (1) DE19918633A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU90675B1 (en) * 2000-11-10 2002-05-13 Iee Sarl Device control method
US7970173B2 (en) 2006-03-31 2011-06-28 Denso Corporation Object-detecting device and method of extracting operation object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3545960C1 (en) * 1985-12-23 1987-07-09 Messerschmitt Boelkow Blohm Method and arrangement for recognizing parts
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
DE19708240A1 (en) * 1997-02-28 1998-09-10 Siemens Ag Arrangement for the detection of an object in a region illuminated by waves in the invisible spectral range

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3545960C1 (en) * 1985-12-23 1987-07-09 Messerschmitt Boelkow Blohm Method and arrangement for recognizing parts
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
DE19708240A1 (en) * 1997-02-28 1998-09-10 Siemens Ag Arrangement for the detection of an object in a region illuminated by waves in the invisible spectral range

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. Malz:"Der Einsatz schneller Beleuchtungsopera- tionen für die robuste Merkmalsextraktion und Segmentierung in der industriellen Objekterkennungund Qualitätsprüfung", Mustererkennung 1988, 10. DAGM-Symposium, Zürich, Springer-Verlag,S.270-276 *
R. Schuster:"Adaptive Modeling in Color Image Se- quencys", Mustererkennung 1994, 16. DAGM-SymposiumWien, Springer-Verlag, S. 161-169 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU90675B1 (en) * 2000-11-10 2002-05-13 Iee Sarl Device control method
WO2002039200A1 (en) * 2000-11-10 2002-05-16 Iee International Electronics & Engineering S.A. Method for controlling devices
US7970173B2 (en) 2006-03-31 2011-06-28 Denso Corporation Object-detecting device and method of extracting operation object
DE102007015495B4 (en) * 2006-03-31 2013-07-25 Denso Corporation Object detection device and method for extracting a control object

Similar Documents

Publication Publication Date Title
DE69530395T2 (en) INTERACTIVE PROJECTED VIDEO DISPLAY SYSTEM
DE69723644T2 (en) POSITION DETERMINATION OF A LASER INDICATOR IN A PROJECTION DISPLAY SYSTEM
DE60028894T2 (en) Presentation system with an interactive presentation
DE102007044196B4 (en) Control device and method for controlling an image display
DE19708240C2 (en) Arrangement and method for detecting an object in a region illuminated by waves in the invisible spectral range
DE69812696T2 (en) METHOD AND DEVICE FOR ADJUSTING ONE OR MORE PROJECTORS
DE10003376B4 (en) Screen stabilization device for a display unit
DE60126554T2 (en) Image display system, image processing method and information storage medium
DE102009032637A1 (en) Image magnification system for a computer interface
DE102016210288A1 (en) Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device
DE102006001075A1 (en) Electronic vision aid and electronic visual aid procedure
DE102016215746A1 (en) Projector with non-contact control
DE102004062733A1 (en) Presentation device and reproduction method
EP3483617A1 (en) Latency measurement method
DE102008042200A1 (en) Manipulation of the environment-synchronized interface
WO2003107072A1 (en) Method and device for recording the position of an object in space
DE19918633A1 (en) Procedure to reduce extraneous light on object to be recognized for gesture operated touchscreen
EP0859977A2 (en) Interaction area for data representation
WO1992005483A1 (en) Data input device
EP2841992B1 (en) Method of reducing the lighting instensity of a projection device
DE102011119082A1 (en) Device arrangement for providing interactive screen of picture screen, has pointer which scans gestures in close correlation with screen, and control unit is configured to interpret scanned gestures related to data as user input
EP3894929A1 (en) Microscope system with an input unit for simultaneously adjusting at least three adjustment parameters by means of an input pointer that is positionable in an input area
DE10119648B4 (en) Arrangement for the operation of television technical devices
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS
DE19602592A1 (en) Control device for computer-aided information projection and recording

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8130 Withdrawal