WO2013121052A1 - Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method - Google Patents

Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method Download PDF

Info

Publication number
WO2013121052A1
WO2013121052A1 PCT/EP2013/053216 EP2013053216W WO2013121052A1 WO 2013121052 A1 WO2013121052 A1 WO 2013121052A1 EP 2013053216 W EP2013053216 W EP 2013053216W WO 2013121052 A1 WO2013121052 A1 WO 2013121052A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
scene
generated
pixel
image
Prior art date
Application number
PCT/EP2013/053216
Other languages
French (fr)
Inventor
Nizar Ouarti
Avinoam SAFRAN
Johan LE BRUN
Samuel PINEAU
Original Assignee
Universite Pierre Et Marie Curie (Paris 6)
Centre National De La Recherche Scientifique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universite Pierre Et Marie Curie (Paris 6), Centre National De La Recherche Scientifique filed Critical Universite Pierre Et Marie Curie (Paris 6)
Publication of WO2013121052A1 publication Critical patent/WO2013121052A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Definitions

  • the invention relates to a method for highlighting at least one moving element in a scene.
  • the invention also relates to a portable augmented reality device implementing said method.
  • “Augmented reality” is today the techniques used to change the perception of the environment, whether it is related to sight, touch or even smell, through more or less immersive devices.
  • the devices relating to the vision may especially be called retinal, when they are directly applied to the retina of the user, "head-mounted display” or HMD, when they are worn on the head or face as helmets or goggles, “hand-held display” or HHD, when they are adapted to be worn as hand-held mobile phones or consoles.
  • Eyeglasses are of little use for people with low vision due to a rare condition such as retinopathy pigmentosa or juvenile retinoschisis but also to a more common pathology such as Aging Age-related Degeneration or AMD. .
  • the macula is the central part of the retina whose main role is to transmit to the brain information on the contours and colors of the various elements contained in a scene. But with age, the macula tends to deteriorate. Patients with AMD are thus victims of a progressive deterioration of their vision with for example a decrease in the sensitivity to contrasts, a tendency to the deformation of the straight lines and sometimes the appearance of a dark central task still called scotoma. To date, there is no known therapeutic treatment to completely cure a patient with AMD.
  • augmented reality techniques In order to assist a patient with a retinal pathology it has been proposed to employ augmented reality techniques.
  • the scene is observed using a sensor and processed images are generated.
  • a scene consists of a set of real elements, which can be for example people or objects, likely to move within an environment: Movements can also appear in non-rigid objects (eg facial expressions): the moving element is then the moving portion of the non-rigid object.
  • a sensor is a device that transforms the state of a physical quantity into an observable quantity.
  • sensors can be associated to measure one or more physical quantities on a spatial window and may vary over time.
  • an isolated photodiode may constitute a sensor
  • the combination of several photodiodes may constitute a camera that will also be described as a sensor
  • Another method is to display a miniaturized version of the scene with outlines enhanced on the original image.
  • the images processed thus comprise a representation of the elements of the scene according to the information generated by the sensor associated with them, the representation of each of the elements is qualified as figuration.
  • each of the figurations are generally determined according to the same principles for all the elements of the same scene.
  • a digital camera having common optical sensors is used to photograph a scene, it makes it possible to obtain digital images in which the figurations of the elements of the scene are, from the point of view of the user and because of their. visual characteristics, very representative of, or similar to, the scene he can observe with the naked eye.
  • An object of the invention is to propose a method for generating processed images of a real scene taking place in front of a person by processing the information acquired by means of a sensor from the real scene which makes it possible to overcome disadvantages mentioned above.
  • An object of the invention is also to provide a portable augmented reality device implementing such a method.
  • the number of highlighted elements is reduced vis-à-vis worked images that are generated by a method of the prior art.
  • the person can thus visualize the scene by the display member without being as tired as if it viewed said scene through processed images generated by a method of the prior art.
  • it is important to put the moving elements in evidence so that a person can move towards these elements for example to avoid or catch one of the elements.
  • a person with a pathology of the retina can thus more easily interact with his environment. By parallax, the elements closest to the person are much more visible.
  • the person apprehends in priority the moving elements that are generally the important elements of the scene.
  • the inventors have found that a person has difficulty in understanding the important elements of the scene because too much contours or not enough contours were enhanced. When too many contours were enhanced, the images were difficult to understand for the person watching them. When little outlines were enhanced, important elements of the scene could escape the attention of the person.
  • the term sensor may of course designate an isolated sensor or a combination of sensors.
  • the term figuration designates the representation in the processed image of an element, in particular an element in motion.
  • the invention thus makes it possible to highlight the figurations of the moving elements directly by working on the information generated by the sensor.
  • the worked images thus highlight said figurations by a work on their visual characteristics and not by the addition of fictitious elements in the images worked to highlight said figurations.
  • the method comprises an analysis of the matrix data generated by the sensor by calculating the dense optical flows associated with these data.
  • the computation of dense optical fluxes uses a dense differential optical flux method with a pyramidal scheme.
  • the invention also relates to a portable augmented reality device implementing the method according to the invention.
  • Figure 1 is a diagram showing the different steps of the method of the invention.
  • FIG. 2 is a perspective view of a portable augmented reality device embodying the method of the invention illustrated in FIG.
  • the method of the invention is intended to highlight at least one moving element in a scene.
  • the method comprises for this purpose a first step 1 during which the scene is observed using at least one sensor.
  • the sensor comprises at least one camera taking pictures of the scene.
  • a second step 2 the images taken by the camera are analyzed to identify the moving element in the scene.
  • a third step 3 real-time images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element, are generated in real time. determined according to the analyzed images to highlight said element with respect to other immobile elements of the scene.
  • a fourth step 4 the processed images generated in the third step 3 are projected onto a display member.
  • the visual characteristic is determined as a function of at least one inertial characteristic related to the movement of the element in the scene.
  • the inertial characteristic is for example a speed of displacement of the element, a direction of displacement of the element, an acceleration of displacement of the element ...
  • the images processed are generated from a representation of the velocity vectors respectively associated with the pixels of the images taken by the camera.
  • the hue of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
  • a color code is defined, a color being associated with a direction of movement in the images relative to a position of the camera in the images.
  • processed images are generated by assigning to each pixel of the processed image a color which is function, according to the color code, of the direction of the velocity vector associated with the corresponding pixel of the image taken by the camera.
  • the pixels representing an inert part of the scene being all of the same color and the pixels representing part of the moving element being all of a color different from the color of the pixels representing an inert part of the scene, the moving element is well highlighted.
  • a user can easily identify the directions of movement of the elements of the scene.
  • the luminance of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene.
  • the processed images are then generated by assigning each pixel of the processed image: a first luminance if the velocity vector associated with the corresponding pixel of the image taken by the camera has a norm greater than a given threshold;
  • generated images are generated by attributing to the different pixels of the processed image a luminance proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera.
  • the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
  • the higher a moving element has a high speed the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element.
  • the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
  • processed images are generated by assigning to the different pixels of the processed image a luminance which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the direction of the a velocity vector is oriented towards a center of the image taken by the camera, plus the luminance of the corresponding pixel on the image worked will be important.
  • the element in motion is well highlighted on the images worked.
  • the closer a moving element is to the user the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element.
  • the saturation of the figuration of the moving element is determined according to a speed of movement of the element in the scene.
  • processed images are generated by allocating to the different pixels of the processed image a saturation proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera.
  • the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
  • processed images are generated by attributing to the various pixels of the processed image a saturation which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the direction of the image a velocity vector is oriented towards a center of the image taken by the camera, plus the saturation of the corresponding pixel on the image worked will be important.
  • the processed images are generated by modifying the images taken by the camera.
  • the processed images generated by the second implementation contain a greater number of information on the scene observed especially in terms of textures and colors of the elements of the scene.
  • the luminance of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene.
  • the images processed are generated by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the velocity vector of each of said pixels.
  • the following formula is used here for each pixel of an image taken by the sensor:
  • the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
  • the higher a moving element has a high speed the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element.
  • the processed images are generated by keeping the luminance of the pixels of the images taken by the camera that have a velocity vector standard higher than a predetermined threshold and by lowering the luminance of the pixels of the images taken by the camera that have a standard of velocity vector below said threshold.
  • the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
  • the processed images are generated by increasing the luminance of the pixels of the images taken by the camera which have a velocity vector standard higher than a predetermined threshold and by maintaining the luminance of the pixels of the images taken by the camera which have a velocity vector standard below said threshold.
  • the predetermined gain for increasing the luminance of the pixels - dyn the luminance dynamics of the image taken by the camera (usually 255).
  • the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
  • the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
  • the images processed are generated by modifying the luminance of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of a pixel is oriented toward a center images taken by the camera plus the luminance of said pixel in the processed images is important.
  • the moving element is well. highlighted.
  • the more a moving element goes in the direction of the user the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element.
  • the saturation of the figuration of the moving element is determined according to a speed of movement of the element in the scene.
  • the images worked are generated by modifying the saturation of the pixels of the images taken by the camera in proportion to the norm of the velocity vector of each of said pixels.
  • the following formula is used here for each pixel of an image taken by the sensor:
  • the processed images are generated by increasing the saturation of the pixels of the images taken by the camera which have a velocity vector standard higher than a predetermined threshold and by maintaining the saturation of the pixels of the images taken by the camera which have a standard velocity vector below said threshold.
  • S '' the saturation of the pixel of the processed image; - saturation of the pixel of the image taken by the camera; the norm of the pixel velocity vector of the image taken by the camera;
  • the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
  • the images worked are generated by modifying the saturation of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of a pixel is oriented toward a center images taken by the camera plus the saturation of said pixel in the images worked is important.
  • the determination method is here implemented using a portable augmented reality device 10 which is for example worn by a user suffering from a pathology of the retina.
  • the augmented reality portable device 10 comprises a display member.
  • the display member comprises a pair of spectacles 11 comprising on a first lens a first display 15 and on a second lens a second display 16.
  • the augmented reality portable device 10 further includes at least one sensor for viewing the scene.
  • the augmented reality portable device 10 thus comprises means for taking stereoscopic images which comprise a first camera 12 associated with the right eye of the user and the first lens and a second associated camera 13 to the left eye of the user and to the second glass.
  • the augmented reality portable device 10 further comprises a computing device 14 which is connected here wired to the stereoscopic image taking means as well as to the first display 15 and to the second display 16.
  • the computing device 14 includes means for analyzing the images taken by the cameras 12, 13 to identify at least one moving element in the scene.
  • the computing device 14 further comprises means for generating the processed images of the scene in real time.
  • the computing unit 14 To work in real time, the computing unit 14 must deliver a large computing power in a very short time.
  • the computing unit 14 comprises a parallel calculation module in particular for generating the processed images in real time.
  • the parallel computing module is for example a graphics processor (GPU or Graphical Processing Unit in English) or a programmable logic circuit (SPGA or System-Programmable Gaste Array).
  • GPU Graphical Processing Unit
  • SPGA System-Programmable Gaste Array
  • the augmented reality portable device 10 here comprises a battery 17 for powering said portable augmented reality device 10.
  • the computing device 14 implements, for example, the following algorithm.
  • the computing device 14 estimates the optical flux of the pixels of the images taken by each camera so as to determine velocity vectors which are respectively associated with each of said pixels.
  • the computation unit 14 estimates:
  • the computation member 14 estimates the velocity vector of each pixel of the image f n + 1 (x, y, t + dt), which makes it possible to locate one or more moving elements in the scene.
  • the computing device 14 In a second step, the computing device 14 generates an image f n + i '(x, y, t + dt) by modifying the image fn + i (, Y, t + dt). For this purpose, for each pixel of the image fn + i (x r y, t + dt), the computation unit 14 estimates for example the norm of the vector (u n + i; v n + i). The image f n + i '(x, y, t + dt) is then created for example by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the thus calculated velocity vector of each of said pixels, as described previously. The processed images of each camera are here processed by the computing device 14 in order to generate worked stereoscopic images of the scene that are projected onto said glasses displays 11.
  • the portable device 10 augmented reality is a small footprint so that the user can wear it on him everyday.
  • the augmented reality portable device 10 allows the projection of the images processed in real time so that the user can interact in a natural way with his environment.
  • the computation unit 14 implements the following algorithm based on the analysis of dense optical flows.
  • the analysis step thus comprises the real-time calculation of optical flows for estimating the inertial characteristic, the optical flux being a vector field representing the displacement of each pixel between two images generated by the sensor.
  • successive images here means images generated by the sensor at successive times (as in the previous example images taken at times t and t + dt).
  • the images considered for the computation of the optical fluxes correspond preferably to consecutive instants although this is not obligatory.
  • the visual characteristics of the representation of each element of the scene can thus be modified accordingly by taking into account the inertial data of each pixel. This will result in images where the moving areas of the video formed by the succession of images will have a different representation of the static areas.
  • the goal is to determine which objects are moving thanks to the optical flow.
  • the analysis step comprises the real-time calculation of the dense optical fluxes taking into account all the pixels of the successive images generated by the sensor.
  • a real-time dense optical flux calculation is thus performed here.
  • the invention thus aims to take advantage of the computation of a dense optical flux in real time and its graphical representation to obtain the images processed from the real scene.
  • the computation of the dense optical fluxes in real time comprises the implementation of a dense differential optical flow method with a pyramidal scheme (see for example Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker: Description of tea algorithm ", Intel Corporation - Microprocessor Research Labs, 2002.)
  • L m is 2, 3 or 4
  • L m is 2, 3 or 4
  • each successive image is sub-sampled from the level 0 corresponding to the initial image to the level L m corresponding to the coarsest sampling.
  • the optical flux is computed and then propagated at the lower level by translating one of the two images according to this optical flux. The calculation is performed again at the lower level and so on until level 0 which corresponds to the initial image. The final optical flux is then recovered.
  • the computation of the dense optical flux in real time at each level of the pyramid comprises a minimization of the aforementioned functional.
  • non-stationary wavelet packets will preferably be used. It is thus used a Besov space and non-stationary wavelet packets called "PONS" (see “Best basis denoising with non-stationary avelet packets” Ouarti & Peyre, Proceedings of IEEE-ICIP (pp. 3825-3828), 2009) which generalize the notion of wavelet.
  • PONS Besov space and non-stationary wavelet packets
  • the images worked are generated according to a model Luminance Saturation Hue (TSL) or HSL in English.
  • TSL Luminance Saturation Hue
  • the hue is the pure form of a color that is to say without adding white, black or gray
  • the saturation quantifies the amount of gray present in a color
  • the luminance quantifies the amount of white or black in a color.
  • the visual characteristic determined according to at least the inertial characteristic is then one of the three parameters of the HSL model, namely hue, saturation or luminance.
  • the determination of the visual characteristic and the generation accordingly of the processed images will therefore have the effect of representing movement information by a modification of the position in the colored space of the pixels of the images worked with respect to their positions in the non-processed images. generated by the sensor. It should be noted, however, that in the case of monochrome images or videos showing only one physical quantity at a time, the change will only be effective on a single parameter such as luminance.
  • the center of the image worked to generate is initialized to zero.
  • the norm of (u, v), the angle of (u, v) and the position of the pixel associated with (u, v) are calculated.
  • the scalar product is then calculated between the normed vector of the position of the pixel and the opposite of the normalized vector (w, v).
  • the norm of (u, v) is defined as luminance, the angle of (, v) as hue and S as saturation.
  • the inertial characteristic comprises velocity vectors which are each associated with one of the pixels of the images taken by the camera, the time calculation real optical fluxes for estimating said velocity vectors.
  • the method of the invention may be implemented for applications other than medical aid to persons suffering from a pathology of the retina and / or may be implemented by other devices than that described.
  • the method according to the invention can be implemented to help a vehicle driver to better understand his environment by highlighting moving elements at the rear of the vehicle as another vehicle.
  • the display member will be arranged above one of the mirrors as the left mirror. Thus, the driver can both look at the rearview mirror and the display member to apprehend what is happening at the rear of his vehicle.
  • the step of real-time generation of the images worked may be different from those described.
  • the inertial characteristic may also be related to the acceleration of the element, at a distance from the element with respect to the center of the images taken by the camera ...
  • the inertial characteristic may thus comprise, instead of velocity vectors, accelerating vectors, which are the derivatives of the velocity vectors.
  • the determined visual characteristic may be other than one of the three parameters hue, saturation, luminance as for example a contrast of the contours of the element. It will be possible to determine several visual characteristics of at least the moving figuration as it is located.
  • the visual characteristic (s) as a function of several inertial characteristics related to the movement of the element in the scene. For example, it will be possible to generate processed images of the scene by determining a first visual characteristic of the figuration of the moving element according to the speed of movement of the element and by determining a second visual characteristic of the figuration of the element. moving element according to a direction of movement of the element relative to the sensor and / or the user. As a variant, it will be possible to generate processed images of the scene by determining a unique visual characteristic of the figuration of the moving element according to different inertial characteristics.
  • the images processed are generated by modifying the luminance of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction of the vector the speed of a pixel is oriented towards a center of the images taken by the camera and the higher the standard of the velocity vector of said pixel, the higher the luminance of said pixel in the processed images is important.
  • the images worked are generated by modifying the saturation of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of one pixel is center-oriented images taken by the camera and the higher the speed vector standard of said pixel, the higher the saturation of said pixel in the images worked is important.
  • images taken by the camera in gray level or through images taken by the camera in color.
  • the representation of a shadow is mobile from one image to another, it constitutes in itself the figuration of an element in motion.
  • the shadow figuration is highlighted on the images worked, which is of little interest to the user.
  • it is easier to detect the representation of a shadow so that one can then remove at least part of said shadow.
  • at least part of the shadow of the user will be removed if it is present on the images.
  • the sensor, the display member and, in general, the portable augmented reality device implemented can be different from that described here by way of example.
  • the method may be implemented by a different number of sensors than indicated and by other sensors than those described as a laser, a camera, a touch interface, an electron scanner, etc.
  • the senor is a camera directly generating images
  • Most sensors acquire information in analog form, for example a wavelength, and convert it into digital form.
  • the observation of a scene using a sensor makes it possible to obtain data relating to physical quantities, for example optical, sound, tactile (touch screen) data, the detection of secondary electrons, etc.
  • These analog physical data are translated into digital data that can be organized in a matrix form.
  • Such a digital image will thus include a representation of the elements of the scene according to the physical data associated with them, the representation of each of the elements is qualified as figuration.
  • the matrices associated with the digital images used for the video contain spatial and temporal data that make it possible to follow the evolution of the physical magnitudes of the elements of the scene.
  • the invention thus relates to real-time analysis of the differences existing between two successive matrix data, in particular in order to determine the movement of the elements present within the scene, and then to generate in real time processed images of the scene comprising a representation of the image.
  • moving element as marked, in which at least one visual characteristic of at least the figuration of the moving element is determined according to the analyzed information to highlight said element relative to other immobile elements of the scene.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The invention relates to a method for highlighting at least one moving element in a scene, the method comprising the steps of: observing (1) the scene using at least one sensor; analyzing (2) the information generated by the sensor in order to locate the moving element in the scene; generating (3), in real time, processed images of the scene which include a representation of the moving element as located, and in which at least one visual feature of at least the representation of the moving element is determined on the basis of the analyzed information in order to highlight said element relative to other stationary elements of the scene; and projecting (4) the thus-generated images onto a display member.

Description

Procédé de mise en évidence d' au moins un élément en mouvement dans une scène ainsi qu' un dispositif portatif de réalité augmentée mettant en œuvre ledit procédé  Method for highlighting at least one moving element in a scene as well as a portable augmented reality device implementing said method
L' invention concerne un procédé de mise en évidence d'au moins un élément en mouvement dans une scène. L'invention concerne également un dispositif portatif de réalité augmentée mettant en œuvre ledit procédé. ARRIERE PLAN TECHNOLOGIQUE DE L' INVENTION  The invention relates to a method for highlighting at least one moving element in a scene. The invention also relates to a portable augmented reality device implementing said method. BACKGROUND OF THE INVENTION
Par « réalité augmentée » on désigne aujourd'hui les techniques employées pour modifier la perception de l'environnement, que celle-ci soit liée à la vue, au toucher ou encore à l'odorat, au travers de dispositifs plus ou moins immersifs .  "Augmented reality" is today the techniques used to change the perception of the environment, whether it is related to sight, touch or even smell, through more or less immersive devices.
Les dispositifs relatifs à la vision peuvent notamment être qualifiés de rétiniens, lorsqu'ils sont directement appliqués sur la rétine de l'utilisateur, de « head-mounted display » ou HMD, lorsqu'ils sont portés sur la tête ou le visage comme des casques ou des lunettes, de « hand-held display » ou HHD, lorsqu' ils sont adaptés pour être portés à la main comme des téléphones portables ou des consoles de j eu .  The devices relating to the vision may especially be called retinal, when they are directly applied to the retina of the user, "head-mounted display" or HMD, when they are worn on the head or face as helmets or goggles, "hand-held display" or HHD, when they are adapted to be worn as hand-held mobile phones or consoles.
Les applications de ces nouvelles techniques sont nombreuses, elles sont aujourd'hui employées dans le secteur de l'assistance personnelle et de la publicité, de la navigation, du tourisme, de l'industrie militaire, du sport, du design ou encore de la médecine. Dans ce dernier secteur plusieurs domaines sont concernés, on peut notamment citer la chirurgie ou l'ophtalmologie.  The applications of these new techniques are numerous, they are today used in the sector of the personal assistance and the publicity, the navigation, the tourism, the military industry, the sport, the design or the medicine. In the latter sector, several fields are concerned, notably surgery or ophthalmology.
Les lunettes de vue s' avèrent de peu d' utilité pour les personnes atteintes de malvoyance due à une pathologie rare comme une rétinopathie pigmentaire ou bien une rétinoschisis juvénile mais également à une pathologie plus courante comme une Dégénérescence aculaire Liée à l'Age ou DMLA. La macula est la partie centrale de la rétine dont le rôle principal est de transmettre au cerveau des informations sur les contours et les couleurs des différents éléments contenus dans une scène. Or, avec l'âge, la macula a tendance à se détériorer. Les patients atteints de DMLA sont ainsi victimes d'une dégradation progressive de leur vue avec par exemple une diminution de la sensibilité aux contrastes, une tendance à la déformation des lignes droites et parfois l'apparition d'une tâche sombre centrale encore appelée scotome. A ce jour, il n'existe aucun traitement thérapeutique connu permettant de guérir totalement un patient atteint de DMLA. Eyeglasses are of little use for people with low vision due to a rare condition such as retinopathy pigmentosa or juvenile retinoschisis but also to a more common pathology such as Aging Age-related Degeneration or AMD. . The macula is the central part of the retina whose main role is to transmit to the brain information on the contours and colors of the various elements contained in a scene. But with age, the macula tends to deteriorate. Patients with AMD are thus victims of a progressive deterioration of their vision with for example a decrease in the sensitivity to contrasts, a tendency to the deformation of the straight lines and sometimes the appearance of a dark central task still called scotoma. To date, there is no known therapeutic treatment to completely cure a patient with AMD.
Afin d'aider un patient atteint d'une pathologie de la rétine il a été proposé d'employer des techniques de réalité augmentée. La scène est observée à l'aide d'un capteur et des images travaillées sont générées. Typiquement une scène est constituée d'un ensemble d'éléments réels, qui peuvent être par exemple des personnes ou des objets, susceptibles de se déplacer au sein d'un environnement: Des mouvements peuvent également apparaître aussi au sein d'objets non rigides (ex : expressions faciales) : l'élément en mouvement est alors la portion mobile de l'objet non rigide. On rappelle qu'un capteur est un dispositif transformant l'état d'une grandeur physique en grandeur observable. On peut associer plusieurs capteurs permettant de mesurer une ou plusieurs grandeurs physiques sur une fenêtre spatiale et pouvant varier dans le temps. Ainsi par exemple une photodiode isolée peut constituer un capteur, l'association de plusieurs photodiodes peut constituer une caméra que l'on qualifiera également de capteur  In order to assist a patient with a retinal pathology it has been proposed to employ augmented reality techniques. The scene is observed using a sensor and processed images are generated. Typically a scene consists of a set of real elements, which can be for example people or objects, likely to move within an environment: Movements can also appear in non-rigid objects ( eg facial expressions): the moving element is then the moving portion of the non-rigid object. A sensor is a device that transforms the state of a physical quantity into an observable quantity. Several sensors can be associated to measure one or more physical quantities on a spatial window and may vary over time. Thus, for example, an isolated photodiode may constitute a sensor, the combination of several photodiodes may constitute a camera that will also be described as a sensor
Afin d'aider un patient atteint d'une pathologie de la rétine, il a notamment été proposé dans le brevet US 6 611 618 d'employer des techniques de réalité augmentée et plus précisément un procédé comportant les étapes de : observer une scène se déroulant devant le patient à l'aide d'un capteur, en l'occurrence une caméra ; In order to assist a patient suffering from a pathology of the retina, it has notably been proposed in US Pat. No. 6,611,618 to employ augmented reality techniques and more specifically a method comprising the steps of: observe a scene taking place in front of the patient using a sensor, in this case a camera;
générer des images travaillées de la scène à partir des informations générées par la caméra de sorte que tous les contours contenus dans l'image soient rehaussés;  generating processed images of the scene from the information generated by the camera so that all contours contained in the image are enhanced;
projeter les images ainsi générées  project the images thus generated
organe de visualisation.  display organ.
Une autre méthode consiste à afficher une ver s ion miniaturisée de la scène avec des contours rehaussés sur l'image originale.  Another method is to display a miniaturized version of the scene with outlines enhanced on the original image.
Les images travaillées comprennent ainsi une représentation des éléments de la scène fonction des informations générées par le capteur qui leur sont associées, la représentation de chacun des éléments est qualifiée de figuration.  The images processed thus comprise a representation of the elements of the scene according to the information generated by the sensor associated with them, the representation of each of the elements is qualified as figuration.
Les caractéristiques visuelles de chacune des figurations sont généralement déterminées selon les mêmes principes pour tous les éléments d'une même scène. A titre d'exemple, lorsqu'un appareil photographique numérique disposant de capteurs optiques communs est utilisé pour photographier une scène, il permet d'obtenir des images numériques dans lesquelles les figurations des éléments de la scène sont, du point de vue de l'utilisateur et en raison de leurs . caractéristiques visuelles, très représentatives de, voire similaire à, la scène qu'il peut observer à l'œil nu.  The visual characteristics of each of the figurations are generally determined according to the same principles for all the elements of the same scene. By way of example, when a digital camera having common optical sensors is used to photograph a scene, it makes it possible to obtain digital images in which the figurations of the elements of the scene are, from the point of view of the user and because of their. visual characteristics, very representative of, or similar to, the scene he can observe with the naked eye.
Dans le cas du brevet US 6 611 618, les contours sont accentués dans les images travaillées ce qui permet d'aider le patient à mieux percevoir et mieux comprendre la scène qui se déroule devant lui lorsqu'il regarde la scène à travers l'organe de visualisation. En outre, si le patient est atteint d'un scotome, sa vision périphérique est ainsi améliorée ce qui compense sensiblement son absence centrale de vision. In the case of US Pat. No. 6,611,618, the contours are accentuated in the images worked, which makes it possible to help the patient to better perceive and better understand the scene unfolding in front of him when he is watching the scene through the organ. of visualization. In addition, if the patient has a scotoma, his peripheral vision is thus improved which substantially compensates for its central absence of vision.
Cependant, aucune hiérarchisation n'existe entre les contours rehaussés, et donc tous les contours sont rehaussés et très visibles. Il s'avère que pour une scène contenant de nombreux détails, le patient se fatigue très rapidement à visualiser son environnement à partir de telles images travaillées. D'autre part, il est difficile pour le patient d'extraire les informations pertinentes.  However, there is no hierarchy between enhanced outlines, so all outlines are enhanced and highly visible. It turns out that for a scene containing many details, the patient is tired very quickly to visualize his environment from such images worked. On the other hand, it is difficult for the patient to extract the relevant information.
OBJET DE L' INVENTION  OBJECT OF THE INVENTION
Un but de l'invention est de proposer un procédé pour générer des images travaillées d'une scène réelle se déroulant devant une personne par le traitement des informations acquises au moyen d'un capteur à partir de la scène réelle qui permette de surmonter des inconvénients précités .  An object of the invention is to propose a method for generating processed images of a real scene taking place in front of a person by processing the information acquired by means of a sensor from the real scene which makes it possible to overcome disadvantages mentioned above.
Un but de l'invention est également de proposer un dispositif portatif de réalité augmentée mettant en œuvre un tel procédé.  An object of the invention is also to provide a portable augmented reality device implementing such a method.
BREVE DESCRIPTION DE L'INVENTION  BRIEF DESCRIPTION OF THE INVENTION
En vue de la réalisation de ce but, on propose un procédé de mise en évidence d'au moins un élément en mouvement dans une scène, le procédé comportant les étapes de :  In order to achieve this goal, a method of highlighting at least one moving element in a scene is proposed, the method comprising the steps of:
- observer la scène à l'aide d'au moins un capteur ; - observe the scene with at least one sensor;
- analyser des informations générées par le capteur pour repérer l'élément en mouvement dans la scène ; analyzing information generated by the sensor to identify the moving element in the scene;
- générer en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène ; - projeter les images ainsi générées sur un organe de visualisation. generating in real time worked images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the representation of the moving element is determined according to the analyzed information to highlight said element in relation to other immobile elements of the scene; project the images thus generated onto a display unit.
Ainsi, seuls les éléments en mouvement sont mis en évidence de sorte que le nombre d' informations supplémentaires reçues par le cerveau, lorsqu'une personne utilise l'organe de visualisation, n'est pas excessif. L'attention de la personne est donc principalement tournée vers les figurations des éléments en mouvement.  Thus, only the moving elements are highlighted so that the number of additional information received by the brain, when a person uses the viewing member, is not excessive. The attention of the person is therefore mainly turned to the figurations of the moving elements.
Le nombre d'éléments mis en évidence est réduit vis-à- vis d' images travaillées qui sont générées par un procédé de l'art antérieur. La personne peut donc visualiser la scène par l'organe de visualisation sans autant se fatiguer que si elle visualisait ladite scène par l'intermédiaire d'images travaillées générées par un procédé de l'art antérieur. Par ailleurs, il est primordial de mettre les éléments en mouvement en évidence afin qu'une personne puisse se déplacer vis-à-vis de ces éléments par exemple pour éviter ou attraper l'un des éléments. Dans un cadre médical, une personne atteinte d'une pathologie de la rétine peut ainsi plus facilement interagir avec son environnement. De par la parallaxe, les éléments les plus proches de la personne sont bien plus visibles.  The number of highlighted elements is reduced vis-à-vis worked images that are generated by a method of the prior art. The person can thus visualize the scene by the display member without being as tired as if it viewed said scene through processed images generated by a method of the prior art. In addition, it is important to put the moving elements in evidence so that a person can move towards these elements for example to avoid or catch one of the elements. In a medical setting, a person with a pathology of the retina can thus more easily interact with his environment. By parallax, the elements closest to the person are much more visible.
En outre, la personne appréhende en priorité les éléments en mouvement qui sont généralement les éléments importants de la scène. Avec le procédé de l'art antérieur, les inventeurs se sont aperçus qu'une personne éprouvait des difficultés à appréhender les éléments importants de la scène car trop de contours ou pas assez de contours étaient rehaussés. Lorsque trop de contours étaient rehaussés, les images s'avéraient difficilement intelligibles pour la personne qui les regardait. Lorsque peu de contours étaient rehaussés, des éléments importants de la scène pouvaient échapper à l'attention de la personne.  In addition, the person apprehends in priority the moving elements that are generally the important elements of the scene. With the method of the prior art, the inventors have found that a person has difficulty in understanding the important elements of the scene because too much contours or not enough contours were enhanced. When too many contours were enhanced, the images were difficult to understand for the person watching them. When little outlines were enhanced, important elements of the scene could escape the attention of the person.
De façon avantageuse, en mettant en évidence uniquement les éléments en mouvement et non tous les éléments de la scène, il est possible de réaliser les différentes étapes du procédé en temps réel. Par temps réel, on entend ici que les images travaillées sont projetées le plus rapidement possible vis-à-vis du moment où des informations ont été générées par le capteur afin qu'une personne puisse interagir avec son environnement tout aussi naturellement que si elle visualisait directement son environnement. Les inventeurs ont ainsi pu réaliser des prototypes mettant en œuvre le procédé de l'invention dans lesquels entre quinze et vingt images travaillées sont projetées par seconde. Advantageously, highlighting only moving elements and not all elements of the scene, it is possible to perform the different steps of the process in real time. In real time, we mean here that the processed images are projected as quickly as possible when the information was generated by the sensor so that a person can interact with his environment just as naturally as if he were viewing directly his environment. The inventors have thus been able to produce prototypes implementing the method of the invention in which between fifteen and twenty images are projected per second.
Dans le cadre de la présente demande, le terme capteur pourra bien entendu désigner un capteur isolé ou une association de capteurs. Par ailleurs, le terme de figuration désigne la représentation dans l'image travaillée d'un élément en particulier un élément en mouvement .  In the context of the present application, the term sensor may of course designate an isolated sensor or a combination of sensors. Moreover, the term figuration designates the representation in the processed image of an element, in particular an element in motion.
L'invention permet ainsi la mise en évidence des figurations des éléments en mouvement directement par un travail sur les informations générées par le capteur. Les images travaillées mettent ainsi en évidence lesdites figurations par un travail sur leurs caractéristiques visuelles et non par l'ajout d'éléments fictifs dans les images travaillées pour mettre en évidence lesdites figurations .  The invention thus makes it possible to highlight the figurations of the moving elements directly by working on the information generated by the sensor. The worked images thus highlight said figurations by a work on their visual characteristics and not by the addition of fictitious elements in the images worked to highlight said figurations.
Selon un mode particulier de mise en œuvre de l'invention, le procédé comprend une analyse des données matricielles générées par le capteur par calcul des flux optiques denses associés à ces données. De préférence, le calcul des flux optiques denses fait appel à une méthode de flux optique différentiel dense à schéma pyramidal.  According to a particular mode of implementation of the invention, the method comprises an analysis of the matrix data generated by the sensor by calculating the dense optical flows associated with these data. Preferably, the computation of dense optical fluxes uses a dense differential optical flux method with a pyramidal scheme.
L'invention concerne également un dispositif portatif de réalité augmentée mettant en œuvre le procédé selon 1' invention .  The invention also relates to a portable augmented reality device implementing the method according to the invention.
BREVE DESCRIPTION DES DESSINS L'invention sera mieux comprise à la lumière de la description qui suit d'une mise en œuvre particulière non limitative de l'invention en référence aux figures ci- jointes parmi lesquelles : BRIEF DESCRIPTION OF THE DRAWINGS The invention will be better understood in the light of the following description of a particular nonlimiting implementation of the invention with reference to the attached figures among which:
la figure 1 est un schéma représentant les différentes étapes du procédé de l'invention ;  Figure 1 is a diagram showing the different steps of the method of the invention;
la figure 2 est une vue en perspective d'un dispositif portatif de réalité augmentée mettant en œuvre le procédé de l'invention illustré à la figure 1.  FIG. 2 is a perspective view of a portable augmented reality device embodying the method of the invention illustrated in FIG.
DESCRIPTION DETAILLEE DE L'INVENTION  DETAILED DESCRIPTION OF THE INVENTION
En référence à la figure 1, le procédé de l'invention est destiné à mettre en évidence au moins un élément en mouvement dans une scène.  With reference to FIG. 1, the method of the invention is intended to highlight at least one moving element in a scene.
Le procédé comporte à cet effet une première étape 1 au cours de laquelle on observe la scène à l'aide d'au moins un capteur. Ici, le capteur comporte au moins une caméra prenant des images de la scène.  The method comprises for this purpose a first step 1 during which the scene is observed using at least one sensor. Here, the sensor comprises at least one camera taking pictures of the scene.
Dans une deuxième étape 2, on analyse les images prises par la caméra pour repérer l'élément en mouvement dans la scène.  In a second step 2, the images taken by the camera are analyzed to identify the moving element in the scene.
Dans une troisième étape 3, on génère en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des images analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène .  In a third step 3, real-time images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element, are generated in real time. determined according to the analyzed images to highlight said element with respect to other immobile elements of the scene.
Dans une quatrième étape 4, on projette sur un organe de visualisation les images travaillées générées à la troisième étape 3.  In a fourth step 4, the processed images generated in the third step 3 are projected onto a display member.
De préférence, la caractéristique visuelle est déterminée en fonction d'au moins une caractéristique inertielle liée au mouvement de l'élément dans la scène. La caractéristique inertielle est par exemple une vitesse de déplacement de l'élément, une direction de déplacement de l'élément, une accélération de déplacement de l'élément... Preferably, the visual characteristic is determined as a function of at least one inertial characteristic related to the movement of the element in the scene. The inertial characteristic is for example a speed of displacement of the element, a direction of displacement of the element, an acceleration of displacement of the element ...
Selon une première mise en œuvre du procédé de l'invention, lors de la troisième étape 3, on génère les images travaillées à partir d'une représentation des vecteurs vitesses associés respectivement aux pixels des images prises par la caméra.  According to a first implementation of the method of the invention, during the third step 3, the images processed are generated from a representation of the velocity vectors respectively associated with the pixels of the images taken by the camera.
Dans un premier exemple, on détermine la teinte de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène.  In a first example, the hue of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
De préférence, on définit alors un code couleur, une couleur étant associée à une direction de déplacement dans les images relativement à une position de la caméra dans les images. Puis, on génère des images travaillées en attribuant à chaque pixel de l'image travaillée une couleur qui est fonction, selon le code couleur, de la direction du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra.  Preferably, a color code is defined, a color being associated with a direction of movement in the images relative to a position of the camera in the images. Then, processed images are generated by assigning to each pixel of the processed image a color which is function, according to the color code, of the direction of the velocity vector associated with the corresponding pixel of the image taken by the camera.
Les pixels représentant une partie inerte de la scène étant tous d'une même couleur et les pixels représentant une partie de l'élément en mouvement étant tous d'une couleur différente de la couleur des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. De façon avantageuse, un utilisateur peut aisément repérer les directions de déplacement des éléments de la scène.  The pixels representing an inert part of the scene being all of the same color and the pixels representing part of the moving element being all of a color different from the color of the pixels representing an inert part of the scene, the moving element is well highlighted. Advantageously, a user can easily identify the directions of movement of the elements of the scene.
Dans un deuxième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène.  In a second example, the luminance of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene.
De préférence, on génère alors les images travaillées en attribuant à chaque pixel de l'image travaillée : - une première luminance si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme supérieure à un seuil donné ; Preferably, the processed images are then generated by assigning each pixel of the processed image: a first luminance if the velocity vector associated with the corresponding pixel of the image taken by the camera has a norm greater than a given threshold;
- une deuxième luminance, inférieure à la première, si le vecteur vitesse associé au pixel correspondant de l'image prise par la caméra a une norme inférieure au seuil donné.  a second luminance, less than the first, if the velocity vector associated with the corresponding pixel of the image taken by the camera has a standard lower than the given threshold.
Un pixel représentant une partie inerte de la scène ayant une luminance inférieure à celle d'un pixel représentant une partie d'un élément en mouvement, l'élément en mouvement est bien mis en évidence sur les images travaillées.  Since a pixel representing an inert part of the scene has a luminance lower than that of a pixel representing a part of a moving element, the moving element is well highlighted on the images worked.
En variante, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une luminance proportionnelle à la norme du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra .  In a variant, generated images are generated by attributing to the different pixels of the processed image a luminance proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera.
De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. En outre, plus un élément en mouvement a une vitesse élevée, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement.  Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted. In addition, the higher a moving element has a high speed, the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element.
Dans un troisième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène.  In a third example, the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une luminance qui est fonction de la direction de déplacement du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra de sorte que plus la direction d'un vecteur vitesse est orientée vers un centre de l'image prise par la caméra, plus la luminance du pixel correspondant sur l'image travaillée sera importante. Preferably, processed images are generated by assigning to the different pixels of the processed image a luminance which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the direction of the a velocity vector is oriented towards a center of the image taken by the camera, plus the luminance of the corresponding pixel on the image worked will be important.
Les pixels représentant une partie inerte de la scène étant tous d'une même luminance et les pixels représentant une partie d'un élément en mouvement étant tous d'une luminance différente de celle des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence sur les images travaillées. De façon avantageuse, plus un élément en mouvement se rapproche de l'utilisateur, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement.  The pixels representing an inert part of the scene being all of the same luminance and the pixels representing part of a moving element being all of a luminance different from that of the pixels representing an inert part of the scene, the element in motion is well highlighted on the images worked. Advantageously, the closer a moving element is to the user, the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element.
Dans un quatrième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène.  In a fourth example, the saturation of the figuration of the moving element is determined according to a speed of movement of the element in the scene.
De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une saturation proportionnelle à la norme du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra .  Preferably, processed images are generated by allocating to the different pixels of the processed image a saturation proportional to the norm of the velocity vector associated with the corresponding pixel of the image taken by the camera.
Dans un cinquième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène.  In a fifth example, the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
De préférence, on génère des images travaillées en attribuant aux différents pixels de l'image travaillée une saturation qui est fonction de la direction de déplacement du vecteur vitesse associé au pixel correspondant de l'image prise par la caméra de sorte que plus la direction d'un vecteur vitesse est orientée vers un centre de l'image prise par la caméra, plus la saturation du pixel correspondant sur l'image travaillée sera importante.  Preferably, processed images are generated by attributing to the various pixels of the processed image a saturation which is a function of the direction of movement of the velocity vector associated with the corresponding pixel of the image taken by the camera so that the direction of the image a velocity vector is oriented towards a center of the image taken by the camera, plus the saturation of the corresponding pixel on the image worked will be important.
Selon une deuxième mise en œuvre du procédé de l'invention, lors de la troisième étape 3, on génère les images travaillées par modification des images prises par la caméra. Par rapport aux images travaillées générées par la première mise en œuvre du procédé de l'invention, les images travaillées générées par la deuxième mise en œuvre contiennent un plus grand nombre d' informations sur la scène observée notamment au niveau des textures et des couleurs des éléments de la scène. According to a second implementation of the method of the invention, during the third step 3, the processed images are generated by modifying the images taken by the camera. Compared to the processed images generated by the first implementation of the method of the invention, the processed images generated by the second implementation contain a greater number of information on the scene observed especially in terms of textures and colors of the elements of the scene.
Dans un sixième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène.  In a sixth example, the luminance of the figuration of the moving element is determined as a function of a speed of movement of the element in the scene.
De préférence, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse de chacun desdits pixels. On utilise ici la formule suivante pour chaque pixel d'une image prise par le capteur :
Figure imgf000013_0001
Preferably, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the velocity vector of each of said pixels. The following formula is used here for each pixel of an image taken by the sensor:
Figure imgf000013_0001
avec  with
L' la luminance du pixel de l'image travaillée ; The luminance of the pixel of the processed image;
- L la luminance du pixel de l'image prise par la caméra ; The luminance of the pixel of the image taken by the camera;
- n la norme du vecteur vitesse du pixel de l' image prise par la caméra ;  - the norm of the pixel velocity vector of the image taken by the camera;
- nmax la norme maximale parmi l'ensemble des normes des vecteurs vitesses de l'image prise par la caméra ;  - nmax the maximum standard among all the standards of the speed vectors of the image taken by the camera;
- dyn la dynamique en luminance de l' image prise par la caméra (usuellement 255) .  - dyn the luminance dynamics of the image taken by the camera (usually 255).
De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. En outre, plus un élément en mouvement a une vitesse élevée, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement. En variante, on génère les images travaillées en conservant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en abaissant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil. Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted. In addition, the higher a moving element has a high speed, the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element. Alternatively, the processed images are generated by keeping the luminance of the pixels of the images taken by the camera that have a velocity vector standard higher than a predetermined threshold and by lowering the luminance of the pixels of the images taken by the camera that have a standard of velocity vector below said threshold.
De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence.  Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
Selon une autre variante, on génère les images travaillées en augmentant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en conservant la luminance des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil.  According to another variant, the processed images are generated by increasing the luminance of the pixels of the images taken by the camera which have a velocity vector standard higher than a predetermined threshold and by maintaining the luminance of the pixels of the images taken by the camera which have a velocity vector standard below said threshold.
On utilise ici la formule suivante pour chaque pixel d'une image prise par le capteur:  The following formula is used here for each pixel of an image taken by the sensor:
Si n > X ,  If n> X,
L'= L + g * n  L = L + g * n
si L'≤0 alors L"= 0  if L'≤0 then L "= 0
avec -j si L'≥dyn alors L"= dyn  with -j if the ≥dyn then L "= dyn
si 0 < L'≤ dyn alors L" = L'  if 0 <The ≤ dyn then L "= L '
Si n < X  If n <X
L"= L  L = L
avec with
L' ' la luminance du pixel de l'image travaillée ; The luminance of the pixel of the processed image;
- L la luminance du pixel de l'image prise par la caméra ; The luminance of the pixel of the image taken by the camera;
- n la norme du vecteur vitesse du pixel de l'image prise par la caméra ;  the norm of the pixel velocity vector of the image taken by the camera;
- X le seuil prédéterminé ;  - X the predetermined threshold;
- g le gain prédéterminé pour augmenter la luminance des pixels ; - dyn la dynamique en luminance de l'image prise par la caméra (usuellement 255) . the predetermined gain for increasing the luminance of the pixels; - dyn the luminance dynamics of the image taken by the camera (usually 255).
De façon avantageuse, les pixels représentant une partie d'un élément en mouvement paraissant bien plus lumineux que les pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence.  Advantageously, the pixels representing part of a moving element appear much brighter than the pixels representing an inert part of the scene, the moving element is well highlighted.
Dans un septième exemple, on détermine la luminance de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène.  In a seventh example, the luminance of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
De préférence, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra en fonction de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra plus la luminance dudit pixel dans les images travaillées est importante.  Preferably, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of a pixel is oriented toward a center images taken by the camera plus the luminance of said pixel in the processed images is important.
Les pixels représentant une partie inerte de la scène gardant leur luminance et les pixels représentant une partie d'un élément en mouvement étant tous d'une luminance différente de celle des pixels représentant une partie inerte de la scène, l'élément en mouvement est bien mis en évidence. De façon avantageuse, plus un élément en mouvement va dans la direction de l'utilisateur, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement.  The pixels representing an inert part of the scene keeping their luminance and the pixels representing part of a moving element being all of a luminance different from that of the pixels representing an inert part of the scene, the moving element is well. highlighted. Advantageously, the more a moving element goes in the direction of the user, the more the representation of said element differs from the figurations of the other elements and the user can easily apprehend such a moving element.
Dans un huitième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une vitesse de déplacement de l'élément dans la scène.  In an eighth example, the saturation of the figuration of the moving element is determined according to a speed of movement of the element in the scene.
De préférence, on génère les images travaillées en modifiant la saturation des pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse de chacun desdits pixels. On utilise ici la formule suivante pour chaque pixel d'une image prise par le capteur :
Figure imgf000016_0001
Preferably, the images worked are generated by modifying the saturation of the pixels of the images taken by the camera in proportion to the norm of the velocity vector of each of said pixels. The following formula is used here for each pixel of an image taken by the sensor:
Figure imgf000016_0001
avec  with
S' la saturation du pixel de l'image travaillée ; Saturation of the pixel of the processed image;
- S la saturation du pixel de l'image prise par la caméra ; - saturation of the pixel of the image taken by the camera;
- n la norme du vecteur vitesse du pixel de l'image prise par la caméra ;  the norm of the pixel velocity vector of the image taken by the camera;
- nmax la norme maximale parmi l'ensemble des normes des vecteurs vitesses de l'image prise par la caméra ;  - nmax the maximum standard among all the standards of the speed vectors of the image taken by the camera;
- dyn la dynamique en saturation de l'image prise par la caméra (usuellement 255) .  - dyn the dynamic saturation of the image taken by the camera (usually 255).
Selon une variante, on génère les images travaillées en augmentant la saturation des pixels des images prises par la caméra qui ont une norme de vecteur vitesse supérieure à un seuil prédéterminé et en conservant la saturation des pixels des images prises par la caméra qui ont une norme de vecteur vitesse inférieure audit seuil.  According to a variant, the processed images are generated by increasing the saturation of the pixels of the images taken by the camera which have a velocity vector standard higher than a predetermined threshold and by maintaining the saturation of the pixels of the images taken by the camera which have a standard velocity vector below said threshold.
On utilise ici la formule suivante pour chaque pixel d'une image prise par le capteur:  The following formula is used here for each pixel of an image taken by the sensor:
Si n > X ,  If n> X,
S'= S + g * n  S '= S + g * n
'si S'≤ 0 alors S"= 0 ' if S'≤ 0 then S "= 0
avec < si S'≥ dyn alors S"= dyn  with <if S'≥ dyn then S "= dyn
si Q≤S'≤dyn alors S"= S'  if Q≤S'≤dyn then S "= S '
Si n < X  If n <X
S"= S  S "= S
avec with
S' ' la saturation du pixel de l'image travaillée ; - S la saturation du pixel de l'image prise par la caméra ; - n la norme du vecteur vitesse du pixel de l'image prise par la caméra ; S '' the saturation of the pixel of the processed image; - saturation of the pixel of the image taken by the camera; the norm of the pixel velocity vector of the image taken by the camera;
- X le seuil prédéterminé ;  - X the predetermined threshold;
- g le gain prédéterminé pour augmenter la saturation des pixels ;  the predetermined gain for increasing the saturation of the pixels;
- dyn la dynamique en luminance de l'image prise par la caméra (usuellement 255) .  - dyn the luminance dynamics of the image taken by the camera (usually 255).
Dans un neuvième exemple, on détermine la saturation de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément dans la scène.  In a ninth example, the saturation of the figuration of the moving element is determined according to a direction of movement of the element in the scene.
De préférence, on génère les images travaillées en modifiant la saturation des pixels des images prises par la caméra en fonction de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra plus la saturation dudit pixel dans les images travaillées est importante.  Preferably, the images worked are generated by modifying the saturation of the pixels of the images taken by the camera as a function of the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of a pixel is oriented toward a center images taken by the camera plus the saturation of said pixel in the images worked is important.
En référence à la figure 2, le procédé de détermination est ici mis en œuvre à l'aide d'un dispositif portatif 10 de réalité augmentée qui est par exemple porté par un utilisateur atteint d'une pathologie de la rétine.  With reference to FIG. 2, the determination method is here implemented using a portable augmented reality device 10 which is for example worn by a user suffering from a pathology of the retina.
Le dispositif portatif 10 de réalité augmentée comporte un organe de visualisation. De préférence, l'organe de visualisation comporte une paire de lunettes 11 comprenant sur un premier verre un premier afficheur 15 et sur un deuxième verre un deuxième afficheur 16.  The augmented reality portable device 10 comprises a display member. Preferably, the display member comprises a pair of spectacles 11 comprising on a first lens a first display 15 and on a second lens a second display 16.
Le dispositif portatif 10 de réalité augmentée comporte en outre au moins un capteur pour observer la scène. Selon un mode de réalisation préféré, le dispositif portatif 10 de réalité augmentée comporte ainsi des moyens de prise d' images stéréoscopiques qui comprennent une première caméra 12 associée à l'œil droit de l'utilisateur et au premier verre et une deuxième caméra 13 associée à l'œil gauche de l'utilisateur et au deuxième verre. Le dispositif portatif 10 de réalité augmentée comporte en outre un organe de calcul 14 qui est relié, ici da façon filaire aux moyens de prise d' images stéréoscopiques ainsi qu'au premier afficheur 15 et au deuxième afficheur 16. The augmented reality portable device 10 further includes at least one sensor for viewing the scene. According to a preferred embodiment, the augmented reality portable device 10 thus comprises means for taking stereoscopic images which comprise a first camera 12 associated with the right eye of the user and the first lens and a second associated camera 13 to the left eye of the user and to the second glass. The augmented reality portable device 10 further comprises a computing device 14 which is connected here wired to the stereoscopic image taking means as well as to the first display 15 and to the second display 16.
Selon l'invention, l'organe de calcul 14 comporte des moyens d'analyse des images prises par les caméras 12, 13 pour repérer au moins un élément en mouvement dans la scène. L'organe de calcul 14 comporte en outre des moyens de génération en temps réel des images travaillées de la scène .  According to the invention, the computing device 14 includes means for analyzing the images taken by the cameras 12, 13 to identify at least one moving element in the scene. The computing device 14 further comprises means for generating the processed images of the scene in real time.
Pour travailler en temps réel, l'organe de calcul 14 doit délivrer une puissance de calcul importante en un temps très réduit. De préférence, l'organe de calcul 14 comprend un module de calcul en parallèle notamment pour générer en temps réel les images travaillées. Le module de calcul en parallèle est par exemple un processeur graphique (GPU ou Graphical Processing Unit en anglais) ou encore un circuit logique programmable (SPGA ou System-Programmable Gâte Array) . De façon avantageuse, en parallélisant les calculs, il est possible de les accélérer.  To work in real time, the computing unit 14 must deliver a large computing power in a very short time. Preferably, the computing unit 14 comprises a parallel calculation module in particular for generating the processed images in real time. The parallel computing module is for example a graphics processor (GPU or Graphical Processing Unit in English) or a programmable logic circuit (SPGA or System-Programmable Gaste Array). Advantageously, by parallelizing the calculations, it is possible to accelerate them.
Le dispositif portatif 10 de réalité augmentée comporte ici une batterie 17 pour alimenter ledit dispositif portatif 10 de réalité augmentée.  The augmented reality portable device 10 here comprises a battery 17 for powering said portable augmented reality device 10.
L'organe de calcul 14 met par exemple en œuvre l'algorithme suivant.  The computing device 14 implements, for example, the following algorithm.
L'organe de calcul 14 estime le flux optique des pixels des images prises par chaque caméra de sorte à déterminer des vecteurs vitesses qui sont associés respectivement à chacun desdits pixels. Dans la suite, on note :  The computing device 14 estimates the optical flux of the pixels of the images taken by each camera so as to determine velocity vectors which are respectively associated with each of said pixels. In the following, we note:
(x,y) les coordonnées d'un pixel i d'une image prise; (ui, vi) les coordonnées d'un vecteur vitesse d'un pixel i de l'image prise; Ii l'intensité lumineuse d'un pixel i de l'image prise; (x, y) the coordinates of a pixel i of an image taken; (ui, vi) the coordinates of a velocity vector of a pixel i of the image taken; The luminous intensity of a pixel i of the image taken;
fn (x, y, t ) et fn+i (x, y, t+dt ) deux images successives prises par les capteurs. f n (x, y, t) and f n + i (x, y, t + dt) two successive images taken by the sensors.
Pour chaque pixel de la deuxième image fn+i (x, y, t+dt ) , l'organe de calcul 14 estime : For each pixel of the second image f n + 1 (x, y, t + dt), the computation unit 14 estimates:
- It qui résulte de la différence entre In et In+1 ; - It which results from the difference between I n and I n + 1 ;
- Ix qui résulte de la convolution par un filtre ondelette ayant un seul moment nul de la dérivée de la moyenne de In et In+i par rapport à xn ; - Ix resulting from the convolution by a wavelet filter having a single zero moment of the derivative of the mean of I n and I n + i with respect to x n ;
- Iy qui résulte de la convolution par un filtre ondelette ayant un seul moment nul de la dérivée de la moyenne de In et In+i par rapport à yn. - Iy resulting from the convolution by a wavelet filter having a single zero moment of the derivative of the mean of I n and I n + i with respect to y n .
Puis, pour chaque pixel de la deuxième image fn+i (X/ Yr t+dt ) , l'organe de calcul 14 estime successivement: Then, for each pixel of the second image fn + i (X / Yr t + dt), the computation unit 14 successively estimates:
- ung qui résulte de la convolution de un par une gaussienne et vng qui résulte de la convolution de vn par une gaussienne ; - u ng resulting from the convolution of u n and v by a Gaussian ng resulting from the convolution of w by a Gaussian;
- k qui est défini par k = ((Ix * ung) + (Iy * vng ) + It)l(a2 + Ix2 + Iy2) avec a qui est un coefficient de régularisation de l' image ; - k which is defined by k = ((Ix * u ng ) + (Iy * v ng ) + It) l (a 2 + Ix 2 + Iy 2 ) with a which is a coefficient of regularization of the image;
- un+i par la formule un+l = u - Ix * k et vn+i par la formule v„+i = v,v - fy * . - u n + i by the formula u n + l = u - Ix * k and v n + i by the formula v " + i = v , v - fy *.
Ainsi, l'organe de calcul 14 estime le vecteur vitesse de chaque pixel de l'image fn+i (x, y, t+dt ) ce qui permet de repérer un ou des éléments en mouvement dans la scène. Thus, the computation member 14 estimates the velocity vector of each pixel of the image f n + 1 (x, y, t + dt), which makes it possible to locate one or more moving elements in the scene.
Dans une deuxième étape, l'organe de calcul 14 génère une image fn+i' (x, y, t+dt ) en modifiant l'image fn+i ( , Y, t+dt ) . A cet effet, pour chaque pixel de l'image fn+i (xry, t+dt) , l'organe de calcul 14 estime par exemple la norme du vecteur (un+i ; vn+i) . L'image fn+i' (x, y, t+dt) est alors créée par exemple en modifiant la luminance des pixels des images prises par la caméra proportionnellement à la norme du vecteur vitesse ainsi calculé de chacun desdits pixels, comme décrit précédemment. Les images travaillées de chaque caméra sont ici traitées par l'organe de calcul 14 afin de générer des images stéréoscopiques travaillées de la scène qui sont projetées sur lesdits afficheurs des lunettes 11. In a second step, the computing device 14 generates an image f n + i '(x, y, t + dt) by modifying the image fn + i (, Y, t + dt). For this purpose, for each pixel of the image fn + i (x r y, t + dt), the computation unit 14 estimates for example the norm of the vector (u n + i; v n + i). The image f n + i '(x, y, t + dt) is then created for example by modifying the luminance of the pixels of the images taken by the camera in proportion to the norm of the thus calculated velocity vector of each of said pixels, as described previously. The processed images of each camera are here processed by the computing device 14 in order to generate worked stereoscopic images of the scene that are projected onto said glasses displays 11.
L'utilisateur bénéficie ainsi d'une meilleure vision grâce à l'observation de son environnement à travers les lunettes 11. En outre, le dispositif portatif 10 de réalité augmentée est d'un faible encombrement de sorte que l'utilisateur puisse le porter sur lui au quotidien. De plus, le dispositif portatif 10 de réalité augmentée permet la projection des images travaillées en temps réel de sorte que l'utilisateur puisse interagir de façon naturelle avec son environnement.  The user thus enjoys a better vision through the observation of his environment through the glasses 11. In addition, the portable device 10 augmented reality is a small footprint so that the user can wear it on him everyday. In addition, the augmented reality portable device 10 allows the projection of the images processed in real time so that the user can interact in a natural way with his environment.
Selon un autre mode de mise en œuvre de l'invention, l'organe de calcul 14 met en œuvre l'algorithme suivant basé sur l'analyse de flux optiques denses.  According to another embodiment of the invention, the computation unit 14 implements the following algorithm based on the analysis of dense optical flows.
L'étape d'analyse comporte ainsi le calcul en temps réel de flux optiques pour estimer la caractéristique inertielle, le flux optique étant un champ vectoriel qui représente le déplacement de chaque pixel entre deux images générées par le capteur.  The analysis step thus comprises the real-time calculation of optical flows for estimating the inertial characteristic, the optical flux being a vector field representing the displacement of each pixel between two images generated by the sensor.
Par images successives, on entend ici des images générées par le capteur à des instants qui se suivent (comme dans l'exemple précédent des images prises aux instants t et t+dt) . Les images considérées pour le calcul des flux optiques correspondent de préférence à des instants consécutifs bien que cela ne soit pas obligatoire.  By successive images, here means images generated by the sensor at successive times (as in the previous example images taken at times t and t + dt). The images considered for the computation of the optical fluxes correspond preferably to consecutive instants although this is not obligatory.
Les caractéristiques visuelles de la figuration de chacun des éléments de la scène peuvent ainsi être modifiées en conséquence en prenant en compte les données inertielles de chaque pixel. Ceci aura pour résultante des images où les zones en mouvements de la vidéo formée par la succession d' images auront une représentation différente des zones statiques. L'objectif est donc de déterminer quels sont les objets en mouvement grâce au flux optique. The visual characteristics of the representation of each element of the scene can thus be modified accordingly by taking into account the inertial data of each pixel. This will result in images where the moving areas of the video formed by the succession of images will have a different representation of the static areas. The goal is to determine which objects are moving thanks to the optical flow.
De préférence, l'étape d'analyse comporte le calcul en temps réel des flux optiques denses prenant en compte tous les pixels des images successives générées par le capteur.  Preferably, the analysis step comprises the real-time calculation of the dense optical fluxes taking into account all the pixels of the successive images generated by the sensor.
Il est connu de calculer le flux optique clairsemé en temps-réel par la méthode de Lucas-Kanade (voir notamment « An itérative image registration technique with an application to stereo vision » Bruce D. Lucas and Takeo Kanade, Proceedings of the 7th International Joint Conférence on Artificial Intelligence (IJCAI '81), April, 1981, pp. 674-679. ) .  It is known to calculate the sparse optical flux in real time by the method of Lucas-Kanade (see in particular "An Iterative image registration technique with an application to stereo vision" Bruce D. Lucas and Takeo Kanade, Proceedings of the 7th International Joint Conference on Artificial Intelligence (IJCAI '81), April, 1981, pp. 674-679.).
Une image contient un grand nombre de pixels et trouver la correspondance de chaque pixel entre deux images peut se révéler coûteux en temps de calcul. Une solution est de ne suivre que certains pixels. C'est la méthode du flux optique clairsemé. La méthode de Lucas-Kanade suppose ainsi que le déplacement d'un point de l'image entre deux instants consécutifs est petit et approximativement constant dans un voisinage du point. La définition du flux optique clairsemé s'oppose ainsi au flux optique dense envisagé dans le cadre de l'invention où cette fois l'objectif est de faire correspondre un vecteur de translation pour chaque pixel de l'image.  An image contains a large number of pixels and finding the correspondence of each pixel between two images can be expensive in computation time. One solution is to follow only certain pixels. This is the sparse optical flow method. Lucas-Kanade's method thus supposes that the displacement of a point of the image between two consecutive instants is small and approximately constant in a neighborhood of the point. The definition of the sparse optical flux is thus opposed to the dense optical flux envisaged in the context of the invention where this time the objective is to match a translation vector for each pixel of the image.
Un calcul de flux optique dense en temps réel est ainsi opéré ici. L'invention vise ainsi à mettre à profit le calcul d'un flux optique dense en temps réel et sa représentation graphique pour obtenir les images travaillées issues de la scène réelle.  A real-time dense optical flux calculation is thus performed here. The invention thus aims to take advantage of the computation of a dense optical flux in real time and its graphical representation to obtain the images processed from the real scene.
De préférence, le calcul des flux optiques denses en temps réel comprend la mise en œuvre d'une méthode de flux optique différentiel dense à schéma pyramidal (voir par exemple Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker : Description of the algorithm", Intel Corporation - Microprocessor Research Labs, 2002.) Preferably, the computation of the dense optical fluxes in real time comprises the implementation of a dense differential optical flow method with a pyramidal scheme (see for example Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker: Description of tea algorithm ", Intel Corporation - Microprocessor Research Labs, 2002.)
On définit une hauteur Lm de pyramide (en pratique, Lm vaut 2, 3 ou 4) caractérisant un certain nombre de niveaux. A chaque niveau de la pyramide, on sous- échantillonne chaque image successive depuis le niveau 0 correspondant à l'image initiale jusqu'au niveau Lm correspondant à l'échantillonnage le plus grossier. Au niveau Lm , on calcule le flux optique puis on le propage au niveau inférieur en translatant l'une des deux images selon ce flux optique. On exécute le calcul à nouveau au niveau inférieur et ainsi de suite jusqu'au niveau 0 qui correspond à l'image initiale. On récupère alors le flux optique final. We define a height Lm pyramid (in practice, L m is 2, 3 or 4) characterizing a number of levels. At each level of the pyramid, each successive image is sub-sampled from the level 0 corresponding to the initial image to the level L m corresponding to the coarsest sampling. At the level L m , the optical flux is computed and then propagated at the lower level by translating one of the two images according to this optical flux. The calculation is performed again at the lower level and so on until level 0 which corresponds to the initial image. The final optical flux is then recovered.
De préférence, la méthode inclut l'utilisation d'une fonctionnelle F =F +fiFatta où le terme d'attachement Fam est basé sur une méthode de seuillage et le terme de régularisation Frég est basé sur la méthode U+V selon les travaux de Meyer, β étant un poids contrôlant le ratio entre le terme d'attachement et le terme de régulation. Preferably, the method includes the use of a functional F = F re + fiF attack where the attachment term F am is based on a thresholding method and the regularization term F reg is based on the U + V method according to Meyer's work, β being a weight controlling the ratio between the term of attachment and the term of regulation.
Le calcul du flux optique dense en temps réel à chaque niveau de la pyramide comprend une minimisation de la fonctionnelle précitée.  The computation of the dense optical flux in real time at each level of the pyramid comprises a minimization of the aforementioned functional.
Le terme de régulation est ici basé sur le modèle U+V de Meyer (voir notamment Y. Meyer, Oscillating patterns in image processing and in some nonlinear évolution équations, The Fifteenth Dean Jacquelines B. Lewis Mémorial Lectures, American Mathematical Society, 2001) qui permet de décomposer une image en deux parties : l'une notée p contenant les structures, l'autre notée q contenant les textures où p appartient à l'espace BV des fonctions à variations bornées et où q appartient à l'espace G des fonctions oscillantes qui est proche du dual de l'espace BV qui a comme propriété que plus une fonction est oscillante, plus sa norme II II sera faible. Il est ainsi proposé d'utiliser une régularisation sur l'espace BV, donc avec les variations totales (ROF) . The term regulation here is based on Meyer's U + V model (see, for example, Y. Meyer, Oscillating patterns in image processing and nonlinear evolution equations, The Fifteenth Dean Jacquelines B. Lewis Memorial Lectures, American Mathematical Society, 2001). which makes it possible to split an image into two parts: one written p containing the structures, the other written q containing the textures where p belongs to the space BV of the functions with bounded variations and where q belongs to the space G of oscillating functions which is close to the dual of the space BV which has the property that the more a function is oscillating, the more its standard II II will be weak. It is thus proposed to use a regularization on the space BV, thus with the total variations (ROF).
Pour la partie q, des paquets d'ondelettes non stationnaires seront de préférences utilisés. Il est ainsi utilisé un espace de Besov et des paquets d'ondelettes non stationnaires dites « PONS » (voir « Best basis denoising with non-stationary avelet packets » Ouarti & Peyré, Proceedings of IEEE-ICIP (pp. 3825-3828), 2009) qui généralisent la notion d'ondelette. Ainsi, tous les filtres d'ondelettes classiques peuvent être utilisés dans le cadre de l'invention.  For the q part, non-stationary wavelet packets will preferably be used. It is thus used a Besov space and non-stationary wavelet packets called "PONS" (see "Best basis denoising with non-stationary avelet packets" Ouarti & Peyre, Proceedings of IEEE-ICIP (pp. 3825-3828), 2009) which generalize the notion of wavelet. Thus, all conventional wavelet filters can be used within the scope of the invention.
Pour chaque niveau de la pyramide on considère une première image In et une deuxième image In+} . Pour chaque pixel n de la deuxième image In+l on met en œuvre une boucle itérative jusqu'à minimiser la fonctionnelle pour déterminer les composantes (un,vn) du flux optique dense dudit pixel. Par exemple, on met en œuvre la boucle itérative suivante, les composantes (un,vn) étant prises à zéro en début de boucle : For each level of the pyramid consider a first image I n and a second image I n +} . For each pixel n of the second image I n + 1, an iterative loop is implemented to minimize the functional to determine the components (u n , v n ) of the dense optical flux of said pixel. For example, the following iterative loop is implemented, the components (u n , v n ) being taken to zero at the beginning of the loop:
on calcule le terme ung qui résulte de la convolution de un par une gaussienne; we calculate the term u ng resulting from the convolution of u n by a Gaussian;
on calcule le terme v qui résulte de la convolution de vn par une gaussienne; we calculate the term v which results from the convolution of v n by a Gaussian;
- on calcule le ratio k qui est un ratio défini par k = ((Ix*ung) + (fy*vng) + It)/(a2 +Ix2 +fy2) où a est un coefficient de régularisation de l'image, It la différence entre les images /„ et In+l, (Ix ; Iy) les composantes de la dérivée de la moyenne des images /„ et In+l qui ont été convoluées par un filtre d'ondelette ayant un seul moment nul ; the ratio k is calculated which is a ratio defined by k = ((Ix * u ng ) + (fy * v ng ) + I t ) / (a 2 + Ix 2 + fy 2 ) where a is a regularization coefficient of the image, I t the difference between the images / "and I n + l , (I x ; I y ) the components of the derivative of the mean of the images /" and I n + 1 which have been convolved by a wavelet filter having a single zero moment;
on calcule le terme un+1 = ung - Ix* k et le terme v„+, =v,¾, -fy*k ; we calculate the term u n + 1 = u ng - Ix * k and the term v " + , = v, ¾ , -fy * k;
- on définit un=un+l et vn = vn+l avant de recommencer la boucle . we define u n = u n + 1 and v n = v n + 1 before starting the loop again.
De façon préférée, les images travaillées sont générées selon un modèle Teinte Saturation Luminance (TSL) ou HSL en anglais. On rappelle que la teinte est la forme pure d'une couleur c'est-à-dire sans adjonction de blanc, de noir ou de gris, la saturation quantifie la quantité de gris présent dans une couleur et la luminance quantifie la quantité de blanc ou de noir dans une couleur. La caractéristique visuelle déterminée en fonction d' au moins la caractéristique inertielle est alors l'un des trois paramètres du modèle TSL soit la teinte, la saturation ou la luminance. Preferably, the images worked are generated according to a model Luminance Saturation Hue (TSL) or HSL in English. Remember that the hue is the pure form of a color that is to say without adding white, black or gray, the saturation quantifies the amount of gray present in a color and the luminance quantifies the amount of white or black in a color. The visual characteristic determined according to at least the inertial characteristic is then one of the three parameters of the HSL model, namely hue, saturation or luminance.
La détermination de la caractéristique visuelle et la génération en conséquence des images travaillées aura donc pour effet de représenter des informations de mouvements par une modification de la position dans l'espace coloré des pixels des images travaillées par rapport à leurs positions dans les images non travaillées générées par le capteur. Il convient toutefois de noter que dans le cas d'images ou de vidéos monochromes, ne montrant qu'une seule grandeur physique à la fois, la modification ne sera effective que sur un seul paramètre comme la luminance.  The determination of the visual characteristic and the generation accordingly of the processed images will therefore have the effect of representing movement information by a modification of the position in the colored space of the pixels of the images worked with respect to their positions in the non-processed images. generated by the sensor. It should be noted, however, that in the case of monochrome images or videos showing only one physical quantity at a time, the change will only be effective on a single parameter such as luminance.
Par exemple, le centre de l'image travaillée à générer est initialisé à zéro. Pour chaque pixel de l'image à générer on calcule alors la norme de (u, v) , l'angle de (u,v) et la position du pixel associé à (u,v) . On calcule ensuite S le produit scalaire entre le vecteur normé de la position du pixel et l'opposé du vecteur normé (w, v) . On définit alors la norme de (u,v) comme luminance, l'angle de ( ,v) comme teinte et S comme saturation.  For example, the center of the image worked to generate is initialized to zero. For each pixel of the image to be generated, the norm of (u, v), the angle of (u, v) and the position of the pixel associated with (u, v) are calculated. The scalar product is then calculated between the normed vector of the position of the pixel and the opposite of the normalized vector (w, v). The norm of (u, v) is defined as luminance, the angle of (, v) as hue and S as saturation.
Ainsi, plus un élément en mouvement se rapproche de l'utilisateur, plus la figuration dudit élément se démarque des figurations des autres éléments et l'utilisateur peut aisément appréhender un tel élément en mouvement.  Thus, the more a moving element is closer to the user, the more the representation of said element differs from the figurations of other elements and the user can easily apprehend such a moving element.
De préférence, la caractéristique inertielle comprend des vecteurs vitesses qui sont chacun associés à l'un des pixels des images prises par la caméra, le calcul en temps réel des flux optiques permettant d'estimer lesdits vecteurs vitesses. Preferably, the inertial characteristic comprises velocity vectors which are each associated with one of the pixels of the images taken by the camera, the time calculation real optical fluxes for estimating said velocity vectors.
Bien entendu l'invention n'est pas limitée au mode de réalisation décrit et on peut y apporter des variantes de réalisation sans sortir du cadre de l'invention tel que défini par les revendications.  Naturally, the invention is not limited to the embodiment described and alternative embodiments can be made without departing from the scope of the invention as defined by the claims.
En particulier, le procédé de l'invention pourra être mis en œuvre pour d'autres applications que l'aide médicale aux personnes atteintes d'une patholoqie de la rétine et/ou pourra être mis en œuvre par d'autres dispositifs que celui décrit. Par exemple, le procédé selon l'invention pourra être mis en œuvre afin d'aider un conducteur de véhicule à mieux appréhender son environnement en mettant en évidence des éléments en mouvement à l'arrière du véhicule comme un autre véhicule. Selon un mode réalisation particulier, l'organe de visualisation sera agencé au-dessus de l'un des rétroviseurs comme le rétroviseur gauche. Ainsi, le conducteur pourra à la fois regarder le rétroviseur et l'organe de visualisation pour appréhender ce qui se déroule à l'arrière de son véhicule.  In particular, the method of the invention may be implemented for applications other than medical aid to persons suffering from a pathology of the retina and / or may be implemented by other devices than that described. . For example, the method according to the invention can be implemented to help a vehicle driver to better understand his environment by highlighting moving elements at the rear of the vehicle as another vehicle. According to a particular embodiment, the display member will be arranged above one of the mirrors as the left mirror. Thus, the driver can both look at the rearview mirror and the display member to apprehend what is happening at the rear of his vehicle.
L'étape de génération en temps réel des images travaillée pourra être différente de celles décrites. Par exemple, si la détermination de la caractéristique visuelle de la figuration de l'élément en mouvement est effectuée en fonction d'au moins une caractéristique inertielle liée au mouvement de l'élément, la caractéristique inertielle pourra également être liée à l'accélération de l'élément, à une distance de l'élément par rapport au centre des images prises par la caméra ... La caractéristique inertielle pourra ainsi comprendre, au lieu de vecteurs vitesses, des vecteurs accélérations, qui sont les dérivés des vecteurs vitesse . La caractéristique visuelle déterminée pourra être autre que l'un des trois paramètres teinte, saturation, luminance comme par exemple un contraste des contours de 1' élément . On pourra déterminer plusieurs caractéristiques visuelles d' au moins la figuration en mouvement tel que repéré. On pourra également déterminer la ou les caractéristiques visuelles en fonction de plusieurs caractéristiques inertielles liées au mouvement de l'élément dans la scène. Par exemple, on pourra générer des images travaillées de la scène en déterminant une première caractéristique visuelle de la figuration de l'élément en mouvement en fonction de la vitesse de déplacement de l'élément et en déterminant une deuxième caractéristique visuelle de la figuration de l'élément en mouvement en fonction d'une direction de déplacement de l'élément relativement au capteur et/ou à l'utilisateur. En variante, on pourra générer des images travaillées de la scène en déterminant une unique caractéristique visuelle de la figuration de l'élément en mouvement en fonction de différentes caractéristiques inertielles. The step of real-time generation of the images worked may be different from those described. For example, if the determination of the visual characteristic of the figuration of the moving element is performed as a function of at least one inertial characteristic related to the movement of the element, the inertial characteristic may also be related to the acceleration of the element, at a distance from the element with respect to the center of the images taken by the camera ... The inertial characteristic may thus comprise, instead of velocity vectors, accelerating vectors, which are the derivatives of the velocity vectors. The determined visual characteristic may be other than one of the three parameters hue, saturation, luminance as for example a contrast of the contours of the element. It will be possible to determine several visual characteristics of at least the moving figuration as it is located. It will also be possible to determine the visual characteristic (s) as a function of several inertial characteristics related to the movement of the element in the scene. For example, it will be possible to generate processed images of the scene by determining a first visual characteristic of the figuration of the moving element according to the speed of movement of the element and by determining a second visual characteristic of the figuration of the element. moving element according to a direction of movement of the element relative to the sensor and / or the user. As a variant, it will be possible to generate processed images of the scene by determining a unique visual characteristic of the figuration of the moving element according to different inertial characteristics.
Selon un mode de mise en œuvre préféré, on génère les images travaillées en modifiant la luminance des pixels des images prises par la caméra en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra et plus la norme du vecteur vitesse dudit pixel est élevée, plus la luminance dudit pixel dans les images travaillées est importante.  According to a preferred embodiment, the images processed are generated by modifying the luminance of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction of the vector the speed of a pixel is oriented towards a center of the images taken by the camera and the higher the standard of the velocity vector of said pixel, the higher the luminance of said pixel in the processed images is important.
En variante, on génère les images travaillées en modifiant la saturation des pixels des images prises par la caméra en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images prises par la caméra et plus la norme du vecteur vitesse dudit pixel est élevée, plus la saturation dudit pixel dans les images travaillées est importante. Il sera possible de mettre en œuvre le procédé de l'invention par l'intermédiaire d'images prises par la caméra en niveau de gris ou par l'intermédiaire d'images prises par la caméra en couleur. De préférence, on aura recours à des images prises en couleurs. En effet, si la figuration d'une ombre est mobile d'une image à l'autre, elle constitue en elle-même la figuration d'un élément en mouvement. Pour des images en noir et blanc, la figuration de l'ombre est mise en évidence sur les images travaillées ce qui ne présente que peu d'intérêt pour l'utilisateur. En revanche, avec des images en couleurs, il est plus simple de détecter la figuration d'un ombre de sorte que l'on puisse alors supprimer au moins en partie ladite ombre. De préférence, on supprimera au moins en partie une ombre de l'utilisateur si celle-ci est présente sur les images. As a variant, the images worked are generated by modifying the saturation of the pixels of the images taken by the camera according to the norm and the direction of the velocity vector of each of said pixels so that the direction of the velocity vector of one pixel is center-oriented images taken by the camera and the higher the speed vector standard of said pixel, the higher the saturation of said pixel in the images worked is important. It will be possible to implement the method of the invention via images taken by the camera in gray level or through images taken by the camera in color. Preferably, we will use images taken in color. Indeed, if the representation of a shadow is mobile from one image to another, it constitutes in itself the figuration of an element in motion. For black-and-white images, the shadow figuration is highlighted on the images worked, which is of little interest to the user. On the other hand, with color images, it is easier to detect the representation of a shadow so that one can then remove at least part of said shadow. Preferably, at least part of the shadow of the user will be removed if it is present on the images.
Le capteur, l'organe de visualisation et de façon générale le dispositif portatif de réalité augmentée mis en œuvre peut être différent de celui décrit ici à titre d' exemple .  The sensor, the display member and, in general, the portable augmented reality device implemented can be different from that described here by way of example.
Le procédé pourra être mis en œuvre par un nombre différent de capteurs que celui indiqué et par d'autres capteurs que ceux décrits comme un laser, une caméra, une interface tactile, un scanner à électrons, etc..  The method may be implemented by a different number of sensors than indicated and by other sensors than those described as a laser, a camera, a touch interface, an electron scanner, etc.
En particulier, bien que dans la description détaillée le capteur soit une caméra générant directement des images, on pourra plus généralement utiliser un capteur adapté à générer des données numériques organisées sous forme matricielle formant les informations à analyser.  In particular, although in the detailed description the sensor is a camera directly generating images, it will more generally be possible to use a sensor adapted to generate digital data organized in matrix form forming the information to be analyzed.
La plupart des capteurs acquièrent des informations sous forme analogique, par exemple une longueur d'onde, et la convertisse sous forme numérique. L'observation d'une scène à l'aide d'un capteur permet d'obtenir des données relatives aux grandeurs physiques, par exemple des données optiques, sonores, tactile (écran tactile) , la détection d'électrons secondaires, etc.. Ces données physiques analogiques sont traduites en données numériques qui peuvent être organisée sous forme matricielle. On peut ainsi considérer une matrice à n dimensions impliquant des coordonnées spatiales, des coordonnées temporelles et des coordonnées fonction des données physiques. Most sensors acquire information in analog form, for example a wavelength, and convert it into digital form. The observation of a scene using a sensor makes it possible to obtain data relating to physical quantities, for example optical, sound, tactile (touch screen) data, the detection of secondary electrons, etc. These analog physical data are translated into digital data that can be organized in a matrix form. One can thus consider an n dimensional matrix involving spatial coordinates, temporal coordinates and coordinates depending on the physical data.
Puis, à partir de ces données organisées il est possible de générer une image numérique de la scène dans laquelle les pixels seront déterminés/codés en fonction des données numériques d'intérêt.  Then, from these organized data it is possible to generate a digital image of the scene in which the pixels will be determined / coded according to the digital data of interest.
Puis, une telle image numérique comprendra ainsi une représentation des éléments de la scène fonction des données physiques qui leurs sont associées, la représentation de chacun des éléments est qualifiée de figuration .  Then, such a digital image will thus include a representation of the elements of the scene according to the physical data associated with them, the representation of each of the elements is qualified as figuration.
Lorsque l'on génère une succession d'images numériques à partir d'un capteur il est possible de produire de la vidéo numérique. Typiquement les matrices associées aux images numériques utilisées pour la vidéo contiennent des données spatiales et temporelles qui permettent de suivre l'évolution des grandeurs physiques des éléments de la scène .  When generating a succession of digital images from a sensor it is possible to produce digital video. Typically the matrices associated with the digital images used for the video contain spatial and temporal data that make it possible to follow the evolution of the physical magnitudes of the elements of the scene.
L'invention concerne ainsi l'analyse en temps réel des différences existantes entre deux données matricielles successives afin notamment de déterminer le mouvement des éléments présents au sein de la scène pour ensuite générer en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène.  The invention thus relates to real-time analysis of the differences existing between two successive matrix data, in particular in order to determine the movement of the elements present within the scene, and then to generate in real time processed images of the scene comprising a representation of the image. moving element as marked, in which at least one visual characteristic of at least the figuration of the moving element is determined according to the analyzed information to highlight said element relative to other immobile elements of the scene.
Afin de montrer plus précisément l'intérêt de l'invention une étude a été réalisée sur des patients afin de montrer son impact sur leur capacité à détecter une personne qui entre dans leur champ visuel. Pour cela, une première expérience a été réalisée montrant uniquement le flux optique dépassant un certain seuil de vitesse. Il a été observé chez les patients un bénéfice lors de l'utilisation de l'invention comparé à la vidéo originale, en testant les latences de reconnaissance (p=0.002, test de Wilcoxon appareillé) . In order to show more precisely the interest of the invention a study has been carried out on patients in order to to show its impact on their ability to detect a person who enters their field of vision. For this, a first experiment was performed showing only the optical flux exceeding a certain speed threshold. Patients have been shown to benefit from the use of the invention compared to the original video by testing latencies of recognition (p = 0.002, Wilcoxon paired test).
Une seconde étude a été réalisée pour observer l'impact de l'invention sur la reconnaissance de mouvements spécifiques. L'expérience a été réalisée en mettant à profit l'invention ou un traitement proposé par Peli (voir par exemple le brevet US 6 611 618). La méthode d'affichage utilisée pour cette seconde expérience consistait, cette fois, à changer la luminance de l'image originale proportionnellement à la vitesse du flux optique en un pixel ; un pixel immobile étant conservé de même luminance, comparé à l'image originale. Ce traitement a permis de conserver le contexte de l' image tout en accentuant les régions en mouvement .  A second study was conducted to observe the impact of the invention on the recognition of specific movements. The experiment was carried out using the invention or a treatment proposed by Peli (see for example US Patent 6,611,618). The display method used for this second experiment consisted, this time, in changing the luminance of the original image in proportion to the speed of the optical flux in one pixel; an immobile pixel being kept of the same luminance, compared to the original image. This treatment has preserved the context of the image while accentuating the moving regions.
L'utilisation de l'invention a permis d'améliorer la reconnaissance des mouvements pour chaque patient comparé aux vidéos originales ou aux vidéos traitées avec la méthode de Peli. Après un test de Mann- hytney il a été montré que ces différences étaient significatives au niveau du temps de reconnaissance par comparaison entre une vidéo traitée à l'aide de l'invention et la vidéo non traité (p=2.9811e-013) , la différence est aussi significative si on compare l'utilisation de l'invention avec le protocole de Peli (p=0.028686) .  The use of the invention has improved motion recognition for each patient compared to original videos or videos processed with the Peli method. After Mannheim test it was shown that these differences were significant in the recognition time by comparison between a video processed using the invention and the untreated video (p = 2.9811e-013), the difference is also significant if we compare the use of the invention with the Peli protocol (p = 0.028686).

Claims

REVENDICATIONS
1. Procédé de mise en évidence d'au moins un élément en mouvement dans une scène, le procédé comportant les étapes de : A method of highlighting at least one moving element in a scene, the method comprising the steps of:
- observer (1) la scène à l'aide d'au moins un capteur ; - observe (1) the scene using at least one sensor;
- analyser (2) des informations générées par le capteur pour repérer l'élément en mouvement dans la scène ;analyzing (2) information generated by the sensor to locate the moving element in the scene;
- générer (3) en temps réel des images travaillées de la scène comprenant une figuration de l'élément en mouvement tel que repéré, dans lesquelles au moins une caractéristique visuelle d'au moins la figuration de l'élément en mouvement est déterminée en fonction des informations analysées pour mettre en évidence ledit élément par rapport à d'autres éléments immobiles de la scène ; generating (3) real-time processed images of the scene comprising a figuration of the moving element as identified, in which at least one visual characteristic of at least the figuration of the moving element is determined according to analyzed information to highlight said element relative to other immobile elements of the scene;
- projeter (4) les images ainsi générées sur un organe de visualisation.  projecting (4) the images thus generated on a display member.
2. Procédé selon la revendication 1, dans lequel le capteur est adapté à générer des données numériques organisées sous forme matricielle formant les informations à analyser.  2. Method according to claim 1, wherein the sensor is adapted to generate digital data organized in matrix form forming the information to be analyzed.
3. Procédé selon la revendication 2, dans lequel la caractéristique visuelle est déterminée en fonction d' au moins une caractéristique inertielle liée au mouvement de l'élément dans la scène.  The method of claim 2, wherein the visual characteristic is determined according to at least one inertial characteristic related to the motion of the element in the scene.
4. Procédé selon la revendication 3, dans lequel l'étape d'analyse comporte le calcul en temps réel de flux optiques pour estimer la caractéristique inertielle, le flux étant un champ vectoriel qui représente le déplacement de chaque pixel entre deux images générées à partir de données matricielles successives.  4. The method of claim 3, wherein the analysis step comprises the real-time calculation of optical flows to estimate the inertial characteristic, the flow being a vector field which represents the displacement of each pixel between two images generated from successive matrix data.
5. Procédé selon la revendication 4, dans lequel l'étape d'analyse comporte le calcul en temps réel des flux optiques denses prenant en compte tous les pixels des images générées à partir de données matricielles successives . 5. Method according to claim 4, wherein the analysis step comprises the real-time calculation of the dense optical fluxes taking into account all the pixels of the images generated from successive matrix data.
6. Procédé selon la revendication 5, dans lequel le calcul des flux optiques denses en temps réel comprend la mise en œuvre d'une méthode de flux optique différentiel dense à schéma pyramidal à plusieurs niveaux .  The method of claim 5, wherein calculating the dense optical flows in real time comprises implementing a dense multi-level pyramidal dense differential optical flux method.
7. Procédé selon la revendication 6, dans lequel la méthode de flux optique différentiel dense à schéma pyramidal inclut la minimisation d'une fonctionnelle ( F = Frég + Fatia ) où le terme d'attachement ( FaHa ) est basé sur une méthode de seuillage et le terme de régularisation ( F .0 ) est basé sur une méthode U+V. The method of claim 6, wherein the pyramid scheme dense differential optical flux method includes minimizing a functional (F = F reg + F atia ) where the attachment term (F aHa ) is based on a thresholding method and the regularization term (F 0 ) is based on a U + V method.
8. Procédé selon la revendication 7, dans lequel pour chaque niveau de la pyramide on considère une première image In et une deuxième image In+l de sorte que pour chaque pixel n de la deuxième image In+[ on mette en œuvre la boucle itérative suivante jusqu'à minimiser la fonctionnelle F pour déterminer les composantes (un , vn ) du flux optique dense dudit pixel, les composantes (un , vn ) étant prises à zéro en début de boucle. 8. The method of claim 7, wherein for each level of the pyramid is considered a first image I n and a second image I n + 1 so that for each pixel n of the second image I n + [ we implement the following iterative loop until minimizing the functional F to determine the components (u n , v n ) of the dense optical flux of said pixel, the components (u n , v n ) being taken to zero at the beginning of the loop.
9. Procédé selon la revendication 8, dans lequel le filtre d'ondelettes porte sur des paquets d'ondelettes non stationnaires .  The method of claim 8, wherein the wavelet filter is on non-stationary wavelet packets.
10. Procédé selon la revendication 4, dans lequel la caractéristique inertielle comporte des vecteurs vitesses qui sont associés respectivement à chacun des pixels des images, le calcul en temps réel des flux optiques permettant d'estimer lesdits vecteurs vitesses.  10. The method of claim 4, wherein the inertial characteristic comprises velocity vectors which are respectively associated with each of the pixels of the images, the computation in real time of the optical fluxes for estimating said velocity vectors.
11. Procédé selon la revendication 3, dans lequel les images travaillées sont générées selon un modèle Teinte Saturation Luminance, la caractéristique visuelle déterminée en fonction d'au moins une caractéristique inertielle étant l'un des trois paramètres dudit modèle de sorte que la figuration de l'élément en mouvement ait respectivement une teinte, une saturation ou une luminance qui différencie la figuration des autres éléments immobiles de la scène. The method according to claim 3, wherein the processed images are generated according to a Luminance Saturation Hue template, the visual characteristic determined as a function of at least one inertial characteristic being one of the three parameters of said model so that the representation of the moving element has a hue, saturation or luminance, respectively which differentiates figuration from other motionless elements of the scene.
12. Procédé selon les revendications 10 et 11, dans lequel les images travaillées sont générées en attribuant à chaque pixel de l'image travaillée :  The method according to claims 10 and 11, wherein the processed images are generated by assigning each pixel of the processed image:
- une première luminance si le vecteur vitesse associé au pixel correspondant de l' image générée à partir des données matricielles successives a une norme supérieure à un seuil donné ;  a first luminance if the velocity vector associated with the corresponding pixel of the image generated from the successive matrix data has a norm greater than a given threshold;
- une deuxième luminance, inférieure à la première, si le vecteur vitesse associé au pixel correspondant de l'image générée à partir des données matricielles successives a une norme inférieure au seuil donné. a second luminance, lower than the first, if the velocity vector associated with the corresponding pixel of the image generated from the successive matrix data has a norm lower than the given threshold.
13. Procédé selon les revendications 10 et 11, dans lequel on génère les images travaillées par modification des images générées à partir des données matricielles successives . 13. The method of claims 10 and 11, wherein the processed images are generated by modifying the images generated from the successive matrix data.
14. Procédé selon les revendication 13, dans lequel on génère les images travaillées en modifiant la luminance des pixels des images générées à partir des données matricielles successives proportionnellement à la norme du vecteur vitesse de chacun desdits pixels.  14. The method of claim 13, wherein the images processed are generated by modifying the luminance of the pixels of the images generated from the successive matrix data in proportion to the norm of the velocity vector of each of said pixels.
15. Procédé selon la revendication 13, dans lequel on génère les images travaillées en modifiant la luminance des pixels des images générées à partir des données matricielles successives en fonction de la norme et de la direction du vecteur vitesse de chacun desdits pixels de sorte que plus la direction du vecteur vitesse d'un pixel est orientée vers un centre des images générées à partir des données matricielles successives et plus la norme du vecteur vitesse dudit pixel est élevée, plus la luminance dudit pixel dans les images travaillées est importante.  The method according to claim 13, wherein the images processed are generated by modifying the luminance of the pixels of the images generated from the successive matrix data according to the norm and the direction of the velocity vector of each of said pixels so that more the direction of the velocity vector of a pixel is oriented towards a center of the images generated from the successive matrix data and the higher the standard of the velocity vector of said pixel, the higher the luminance of said pixel in the processed images is important.
16. Dispositif portatif (10) de réalité augmentée comportant au moins un capteur (12, 13) pour observer la scène, un organe de calcul (14) pour analyser les informations générées par le capteur, pour générer en temps réel des images travaillées de la scène et projeter les images travaillées et un organe de visualisation, dans lequel l'organe de calcul comporte un module de calcul en parallèle pour mettre en œuvre le procédé selon l'une des revendications précédentes. 16. An augmented reality portable device (10) having at least one sensor (12, 13) for viewing the scene, a calculating member (14) for analyzing the information generated by the sensor, for generating real-time processed images of the scene and projecting the processed images and a display member, wherein the calculating member comprises a calculation module in parallel for implementing the method according to the invention. one of the preceding claims.
PCT/EP2013/053216 2012-02-16 2013-02-18 Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method WO2013121052A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1251453 2012-02-16
FR1251453A FR2987155A1 (en) 2012-02-16 2012-02-16 METHOD FOR DISPLAYING AT LEAST ONE MOVING ELEMENT IN A SCENE AS WELL AS A PORTABLE DEVICE OF INCREASED REALITY USING SAID METHOD

Publications (1)

Publication Number Publication Date
WO2013121052A1 true WO2013121052A1 (en) 2013-08-22

Family

ID=47722292

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/053216 WO2013121052A1 (en) 2012-02-16 2013-02-18 Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method

Country Status (2)

Country Link
FR (1) FR2987155A1 (en)
WO (1) WO2013121052A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010012982A1 (en) * 2000-01-31 2001-08-09 Yazaki Corporation Side-monitoring apparatus for motor vehicle
US20060178830A1 (en) * 2005-02-10 2006-08-10 Rini Sherony Vehicle collision warning system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009036782A1 (en) * 2007-09-18 2009-03-26 Vrmedia S.R.L. Information processing apparatus and method for remote technical assistance
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
US20100240988A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360 degree heads up display of safety/mission critical data
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010012982A1 (en) * 2000-01-31 2001-08-09 Yazaki Corporation Side-monitoring apparatus for motor vehicle
US20060178830A1 (en) * 2005-02-10 2006-08-10 Rini Sherony Vehicle collision warning system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J-Y BOUGUET: "Pyramidal Implementation of the Lucas Kanade Feature Tracker: Description of the algorithm", INTEL CORPORATION, MICROPROCESSOR RESEARCH LABS, TECHNICAL REPORT,, 1 January 1999 (1999-01-01), pages 1 - 9, XP002536058 *
MARIO CHIESA AND ANTONIO SOLINAS: "AutoNUI dilemma: to drive or not to drive", AUTOMOTIVE UI'11, 29 November 2011 (2011-11-29) - 2 December 2011 (2011-12-02), Salzburg, Austria, XP002685269 *
SCHMALSTIEG D: "Augmented Reality Techniques in Games", MIXED AND AUGMENTED REALITY, 2005. PROCEEDINGS. FOURTH IEEE AND ACM IN TERNATIONAL SYMPOSIUM ON VIENNA, AUSTRIA 05-08 OCT. 2005, PISCATAWAY, NJ, USA,IEEE, 5 October 2005 (2005-10-05), pages 176 - 177, XP010856777, ISBN: 978-0-7695-2459-7 *

Also Published As

Publication number Publication date
FR2987155A1 (en) 2013-08-23

Similar Documents

Publication Publication Date Title
KR102416282B1 (en) Method and device for eye tracking using event camera data
US11334154B2 (en) Eye-tracking using images having different exposure times
Weier et al. Perception‐driven accelerated rendering
US11675432B2 (en) Systems and techniques for estimating eye pose
US10438410B2 (en) Text enhancements for head-mounted displays
US11372243B2 (en) Optical hybrid reality system having digital correction of aberrations
WO2020102110A8 (en) Event-based ir camera
KR102048411B1 (en) Wearable device and image processing method thereof
US11363188B2 (en) Motion-based operation of imaging devices
KR20210138484A (en) System and method for depth map recovery
Vaziri et al. Egocentric distance judgments in full-cue video-see-through vr conditions are no better than distance judgments to targets in a void
EP2469868B1 (en) Method for correcting hyperstereoscopy and related helmet display system
FR2989790A1 (en) VISUALIZATION DEVICE SUITABLE FOR PROVIDING AN EXTENDED VISUAL FIELD.
CN114258279A (en) Pupil assessment using modulated on-axis illumination
WO2013121052A1 (en) Method for highlighting at least one moving element in a scene, and portable augmented reality device implementing said method
US11170578B1 (en) Occlusion detection
Hansen et al. Light field rendering for head mounted displays using pixel reprojection
CN111612915B (en) Rendering objects to match camera noise
EP2469869A1 (en) Method for suppressing a cockpit hood and related helmet viewing system
WO2018083099A1 (en) Method for displaying a mixed reality image
US11877088B2 (en) Contrast enhanced images composited with artificial colorization
US11971553B2 (en) External illumination with reduced detectability
US11756177B2 (en) Temporal filtering weight computation
US20230194875A1 (en) External illumination with reduced detectability
WO2023147996A1 (en) Orientation assistance system comprising means for acquiring a real or virtual visual environment, non-visual human-machine interface means and means for processing the digital representation of said visual environment.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13704795

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13704795

Country of ref document: EP

Kind code of ref document: A1