WO2003077198A1 - System and method for registering spectacles image - Google Patents

System and method for registering spectacles image Download PDF

Info

Publication number
WO2003077198A1
WO2003077198A1 PCT/JP2003/002892 JP0302892W WO03077198A1 WO 2003077198 A1 WO2003077198 A1 WO 2003077198A1 JP 0302892 W JP0302892 W JP 0302892W WO 03077198 A1 WO03077198 A1 WO 03077198A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
glasses
lens
detecting
outer circumference
Prior art date
Application number
PCT/JP2003/002892
Other languages
French (fr)
Japanese (ja)
Inventor
Takehiko Yoshida
Original Assignee
Vision Optic Co., Ltd.
Tada, Hisanobu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Optic Co., Ltd., Tada, Hisanobu filed Critical Vision Optic Co., Ltd.
Priority to AU2003213324A priority Critical patent/AU2003213324A1/en
Publication of WO2003077198A1 publication Critical patent/WO2003077198A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Definitions

  • the present invention relates to an eyeglass image registration system and an eyeglass image registration method for generating and registering image data that can be combined with a human image on a computer screen by photographing eyeglasses, and more particularly to a sales service for eyeglasses using a computer.
  • the present invention relates to a glasses image registration system and a glasses image registration method for generating and registering an image data to be used in a glasses sales system that performs the image processing.
  • the power of the lens can be dealt with by measuring the eyesight or selecting the optimum power from the corrective lens, but the color of the lens and whether the frame is suitable for actual fitting It was necessary to check and all kinds of glasses had to be prepared.
  • eyeglass frames are made of metal frames made of metal such as titanium, cell frames made of plastic, nylon rolls with a nylon thread hung on a metal or plastic rim, and holes made in the lens.
  • eyeglasses with new designs are produced one after another in a wide variety of products, such as screwed two-points, it is difficult to keep all types of glasses in stores.
  • a virtual store has been set up on the network, and customers have access to the virtual store to sell eyeglasses without manual intervention.
  • a system has also been developed, but in this case as well, it receives face image data from the consumer's computer, generates an image synthesized with the glasses image stored in advance, and sends it to the consumer's computer for screen display.
  • the image data of the customer's face may be used by photographing it with, for example, a digital camera and taking it into the consumer's computer.
  • Such image data can be generated by using CAD data when CAD is used for designing glasses, but there are many cases where CAD is not used for designing glasses. In order to do this, it is necessary to raise the drawing again, or to photograph the manufactured glasses with a camera, and generate synthesizable image data from them.
  • recreating a drawing would be a reworking process, and it would not be possible to quickly process eyeglasses prototyped at a manufacturing site, such as accepting an order immediately at a store or a virtual store on the Internet.
  • a method of generating image data that can be synthesized by shooting glasses with a camera is to shoot the glasses with predetermined quality, select an appropriate image from the captured glasses images, and import it to a computer. It is necessary to convert the frame and lens parts of the glasses into the specified data.
  • photographing and computer processing require specialized knowledge and skill, a professional photographer shoots glasses in a studio and views image data taken by a computer graphics expert. —I was processing it in the evening.
  • a main object of the present invention is to provide a low-cost and quickly obtainable image data that can be combined with a human image at any time, where, and by any person. It is to provide. Disclosure of the invention
  • the glasses image registration system wherein the image capturing unit captures an image of the glasses, and a combining image generating unit configured to generate a combining image for combining a human image from the image captured by the capturing unit. And registration means for registering the composition image generated by the composition image generation means together with the specifications of the glasses.
  • An image of the glasses is taken by the photographing means, an image for composition which can be combined with the human image is produced by the image generating means for composition, and specifications of the glasses are produced by the registration means Because it is registered with the user, image data that can be combined with a human image can be obtained quickly and at low cost, no matter when, where, and by whom.
  • the eyeglass image registration system is the eyeglass image registration system according to claim 1, wherein the photographing means includes a photographing box having an openable / closable door and accommodating glasses for photographing. It is equipped with lighting means for illuminating the housed glasses and imaging means for taking images of the glasses housed in the shooting box and obtaining digital images.
  • the glasses for shooting are housed in the shooting box, and the door is closed. This is for taking a glasses image.
  • the eyeglass image registration system according to claim 3 is the eyeglass image registration system according to claim 1 or 2, wherein the photographing unit includes a unit that photographs a front image of the glasses.
  • a glasses image registration system is the glasses image registration system according to any one of the first to third aspects, wherein the photographing unit includes a unit that photographs a bird's-eye view image of the Megane.
  • the eyeglass image registration system is the eyeglass image registration system according to any one of claims 1 to 4, wherein the composition image generation unit specifies a frame portion of the captured glasses. It has a mask generating means for generating a mask including a frame mask image and a lens mask image designating a lens portion of the taken glasses.
  • the frame part when combining the eyeglasses with the human image can be replaced with the captured eyeglass image, and the generated lens mask
  • the lens portion used to combine the glasses with the person image using the mask image can be translucently combined with the glasses lens, making it easy to combine the person image and the glasses in the glasses sales system.
  • the eyeglass image registration system is the magne image registration system according to claim 5, wherein the mask generation unit is configured to detect an outer periphery of the eyeglasses of the captured eyeglass image and to perform an image capturing operation.
  • a lens outer circumference detecting means for detecting the outer circumference of the lens of the eyeglasses image, wherein a frame mask image is generated from the outer circumference of the glasses detected by the outer circumference detecting means of the glasses and the outer circumference of the lens detected by the outer circumference detecting means, It has a function of generating a lens mask image from the outer periphery of the lens detected by the outer periphery detecting means.
  • the outer circumference of the glasses detected by the outer circumference detecting means represents the outer shape of the glasses
  • the outer circumference of the lens detected by the outer circumference detecting means represents the range of the lens in the glasses.
  • the range surrounded by the outer periphery of the lens can be regarded as the frame portion of the glasses, and the range surrounded by the detected outer periphery of the lens can be regarded as the lens portion of the glasses.
  • a frame mask image and a lens mask image can be automatically generated, and anyone can register image data for synthesis that can be easily synthesized with a human image.
  • the present invention further includes a glasses boundary detecting means for detecting a boundary of the glasses from the background part of the image toward the glasses part, wherein the lens outer circumference detecting means includes a lens part estimating means for estimating the lens part from the outer circumference of the glasses detected by the glasses outer circumference detecting means. Lens boundary detecting means for detecting a boundary of the lens from the lens part estimated by the lens part estimating means toward the peripheral part of the lens.
  • the outer periphery of the glasses can be easily detected.
  • the lens portion of the glasses image is estimated from the detected outer periphery of the glasses, and the boundary is detected from the vicinity of the lens portion to the periphery of the lens, so that the label attached to the lens and the reflection in the lens are detected. And other factors, and the outer periphery of the lens can be easily detected.
  • the eyeglass image registration system according to claim 8 is the magne image registration system according to claim 7, wherein the eyeglass perimeter detection means uses a boundary of the eyeglasses detected by the eyeglass boundary detection means as a starting point, and determines a neighborhood of the eyeglass periphery.
  • Including a glasses boundary tracking means for sequentially detecting and tracking the boundaries of the glasses, and the lens outer circumference detection means sequentially detects and tracks the boundaries of the nearby lenses starting from the lens boundaries detected by the lens boundary detection means. It includes lens boundary tracking means.
  • the eyeglass boundary tracking means sequentially detects and tracks the boundaries of nearby glasses starting from the detected eyeglass boundary, so that the outer circumference of the eyeglasses can be detected efficiently, and rims and nose pads with complex shapes can be used. Even if it has a complicated outer shape, it is possible to correctly detect the outer periphery of the glasses. Also, since the lens boundary tracking means sequentially detects and tracks the boundaries of nearby lenses starting from the detected boundary of the lens, the outer periphery of the lens can be detected efficiently.
  • the eyeglass image registration system is the eyeglass image registration system according to any one of claims 6 to 8, wherein:
  • the output means includes a spectacle outer circumference interpolation means for interpolating the detected defective portion on the outer periphery of the spectacles, and the lens outer peripheral detecting means includes a lens outer peripheral interpolation means for interpolating the detected defective portion on the outer periphery of the lens.
  • the outer circumference data of the defective portion is estimated from the detected outer circumference data. It is possible to interpolate.
  • the eyeglass image registration system wherein the eyeglass periphery detection means is an incorrect projection on the periphery of the detected glasses.
  • the lens outer periphery detecting means includes a lens outer periphery illegal protrusion removing means for removing the detected irregular protrusion on the outer periphery of the lens.
  • the outer circumference data of the projection is estimated from the detected outer circumference data, and the illegal data is detected. It is possible to remove the unnecessary projections.
  • An eyeglass image registration system is the eyeglass image registration system according to any one of claims 6 to 10, wherein the mask generation unit acquires eyeglass model information.
  • the eyeglass outer circumference detecting means and the lens or lens outer circumference detecting means have a function of detecting the outer circumference of the glasses and the outer circumference of Z or the lens by utilizing the model information of the eyeglasses obtained by the eyeglass model information obtaining means. Things.
  • the eyeglasses image registration system according to claim 12 is the eyeglasses image registration system according to any one of claims 5 to 11, wherein the mask generation unit includes the generated frame mask image and the generated frame mask image.
  • the left and right comparison correction means for comparing and correcting the left and right images with respect to the lens mask image.
  • the eyeglass image registration system according to claim 13 is the eyeglass image registration system according to any one of claims 5 to 12, wherein the mask generation unit uses point data specified by a pointing device. It includes a mask manual editing means for editing a mask.
  • the eyeglass image registration system according to claim 14 is the eyeglass image registration system according to any one of claims 1 to 13, wherein the image-for-synthesis generation unit includes a pre-registered human image and a photographed image.
  • the glasses images It includes a composite display means for displaying and composing.
  • the eyeglass image registration system according to claim 15 is the eyeglass image registration system according to claim 14, wherein the combining display unit specifies a color and a transmittance of a lens of the glasses image to be combined with the human image. It has a function.
  • the eyeglass image registration system according to claim 16 is the eyeglass image registration system according to claim 14 or claim 15, wherein the combining display unit adjusts a position of the glasses image to be combined with the human image. It has a function to perform.
  • the relative position between the human image and the glasses can be changed, so that it is possible to set an optimal position for the combination.
  • the eyeglass image registration system according to claim 17 is the eyeglass image registration system according to any one of claims 1 to 16, wherein the registration unit includes a label provided on a lens unit of the captured glasses. It is provided with a label reading means for reading the label.
  • a glasses image registration system is the glasses image registration system according to any one of claims 1 to 17, wherein the communication transmits data registered by the registration unit to the glasses sales system. It has the means.
  • the registered data can be provided to the eyeglass sales system online, which makes it possible to sell eyeglasses more quickly and at lower cost.
  • the eyeglasses image registration method further comprising: a step of photographing an image of the glasses, a step of generating an image for combination to be combined with a human image from the photographed image, and a step of generating the image for combination. It is provided with a step to be registered along with the specifications of the glasses.
  • It includes a step of taking a glasses image, generating a combining image that can be combined with a human image from the captured image, and registering the generated combining image together with the specifications of the glasses, so that when, where, and by whom Even if it is performed, image data that can be combined with a human image can be quickly obtained at low cost.
  • the eyeglass image registration method is the method according to claim 19, wherein the step of generating the image for combination includes a frame mask image that specifies a frame portion of the captured glasses. And generating a mask including a lens mask image designating a captured lens portion of the lens.
  • the frame part when combining the glasses with the person image by the generated frame mask image can be replaced with the captured glasses image, and the lens part when combining the glasses with the person image using the generated lens mask image is the lens of the glasses. And a translucent composition, and the composition of the person image and the glasses in the glasses sales system can be easily performed.
  • the eyeglass image registration method according to claim 21 is the eyeglass image registration method according to claim 20, wherein the step of generating the mask includes the step of detecting the outer periphery of the eyeglasses of the captured eyeglass image.
  • the perimeter of the glasses detected by the step of detecting the perimeter of the glasses represents the outer shape of the glasses
  • the perimeter of the lenses detected by the step of detecting the perimeter of the lenses represents the range of the lenses in the glasses.
  • the range surrounded by the outer circumference of the glasses and the detected outer circumference of the lens can be regarded as the frame part of the glasses, and the range surrounded by the detected outer circumference of the lens can be considered as the lens part of the glasses.
  • a frame mask image and a lens mask image can be automatically generated, and anyone can register image data for synthesis that can be easily synthesized with a human image.
  • a method for registering eyeglasses images according to claim 22 is the method for registering eyeglasses according to claim 21, wherein the step of detecting the outer periphery of the glasses is directed from a background portion of the captured glasses image toward the glasses portion.
  • the step of detecting the outer periphery of the lens includes the step of estimating the lens unit from the outer periphery of the glasses detected by the step of detecting the outer periphery of the glasses, and the step of detecting the lens unit from the estimated lens unit. The border of the lens towards the periphery Detecting.
  • the outer periphery of the glasses can be easily detected.
  • the lens portion of the glasses image is estimated from the detected outer periphery of the glasses, and the boundary is detected from the vicinity of the lens portion to the periphery of the lens, so that the label attached to the lens and the reflection in the lens are detected. And other factors, and the outer periphery of the lens can be easily detected.
  • the eyeglass image registration method according to claim 23 is the method according to claim 22, wherein the step of detecting the outer periphery of the glasses includes the step of detecting the boundary of the glasses.
  • the method includes a step of sequentially detecting and tracking the boundary of the neighboring glasses as a starting point, and the step of detecting the outer periphery of the lens includes the step of detecting the boundary of the lens as a starting point. It includes steps for sequentially detecting and tracking boundaries.
  • the detected boundary is used as a starting point to sequentially detect and track the boundaries of nearby glasses, so that the outer circumference of the glasses can be detected efficiently, and a rim or nose pad having a complicated shape can be detected. It is possible to correctly detect the outer periphery of the glasses even if the outer shape of the glasses is intricate due to the shape of the glasses.
  • the boundary of the nearby lens is sequentially detected and tracked starting from the detected boundary, so that the outer periphery of the lens can be detected efficiently.
  • the eyeglass image registration method according to claim 24 is the eyeglass image registration method according to any one of claims 21 to 23, wherein the step of detecting the outer circumference of the eyeglasses includes the step of detecting the outer circumference of the detected eyeglasses.
  • the step of detecting the outer periphery of the lens includes the step of interpolating the defective part of the detected outer periphery of the lens.
  • the outer peripheral data of the defective portion can be estimated and interpolated from the detected outer peripheral data.
  • the eyeglass image registration method according to claim 25 is the eyeglass image registration method according to any one of claims 21 to 24, wherein the step of detecting the outer circumference of the eyeglasses includes the outer circumference of the detected eyeglasses.
  • the step of detecting the outer periphery of the lens includes the step of removing the illegal projection of the lens.
  • the detected outer circumference data is used to determine the outer circumference of the projection. By estimating the data, it is possible to remove the illegal protrusion.
  • the eyeglass image registration method according to claim 26 is the eyeglass image registration method according to any one of claims 21 to 25, wherein the step of generating a mask acquires model information of the glasses. Including step means, the step of detecting the outer circumference of the glasses and the step of detecting the outer circumference of the lens detect the outer circumference of the glasses and the outer circumference of Z or the lens using the acquired model information of the glasses. It includes steps.
  • the mask may be recreated by pressing the glasses model selection button on the screen.
  • a mask can be easily generated by pressing a button.
  • the eyeglass image registration method according to claim 27 is the eyeglass image registration method according to any one of claims 20 to 26, wherein the step of generating a mask includes generating the frame mask image and / or This step includes a step of comparing the left and right images of the generated lens mask image and correcting them.
  • the eyeglass image registration method according to claim 28 is the eyeglass image registration method according to any one of claims 20 to 27, wherein the step of generating a mask is specified by a pointing device. It includes steps to edit the mask from the last day.
  • the eyeglass image registration method according to claim 29 is the eyeglass image registration method according to any one of claims 19 to 28, wherein the step of generating the image for synthesis is a person registered in advance. It includes the step of combining and displaying the image and the captured glasses image.
  • the method for registering eyeglasses images according to claim 30 is the method according to claim 29.
  • the step to be displayed has a step of designating the color and transmittance of the lens of the glasses image to be combined with the human image.
  • the eyeglass image registration method according to claim 31 is the eyeglass image registration method according to claim 29 or claim 30, wherein the displaying step is a step of adjusting the position of the eyeglass image to be combined with the human image. It has. This makes it possible to combine the captured eyeglasses image with a human image on the spot.
  • the eyeglass image registration method according to claim 32 is the eyeglass image registration method according to any one of claims 19 to 31, wherein the registration unit is provided on a lens unit of the captured glasses.
  • the method includes a step of reading a label.
  • the eyeglass image registration method according to claim 33 is the eyeglass image registration method according to any one of claims 19 to 32, wherein the step of transmitting the image data for synthesis registered by the registration unit is performed. It is provided with.
  • the registered data can be used online in the glasses sales system. Since it can be provided, it will be possible to sell eyeglasses more quickly and at lower cost.
  • FIG. 1 is a configuration diagram of a glasses image registration system according to an embodiment of the present invention.
  • FIG. 2 is an illustrative view of a front image capturing device of the glasses image registration system according to one embodiment of the present invention.
  • FIG. 3 is an illustrative view showing a maintenance door of the front image photographing device of the glasses image registration system according to one embodiment of the present invention.
  • FIG. 4 is an illustrative view of a bird's-eye view image capturing apparatus of the glasses image registration system according to one embodiment of the present invention.
  • FIG. 5 is an overall processing flowchart of a computer in the glasses image registration system according to the embodiment of the present invention.
  • FIG. 6 is a processing flowchart according to an embodiment of the mask automatic processing.
  • FIG. 7 is a process flow chart according to an embodiment of the eyeglass periphery detection processing.
  • FIG. 8 is a processing flowchart according to an embodiment of the lens outer periphery detection processing.
  • FIG. 9 is a processing flow chart according to one embodiment of the composite image display processing.
  • FIG. 10 is a processing flow chart according to one embodiment of the mask manual editing processing. is there.
  • FIG. 11 is a processing flowchart according to an embodiment of the data registration processing.
  • FIG. 12 is an explanatory diagram of a starting point in the glasses outer periphery detection processing.
  • FIG. 13 is an explanatory diagram of nearby points in the boundary tracking processing of glasses and lenses.
  • FIG. 14 is an explanatory diagram showing the tracking process of the eyeglasses and lens boundary tracking process.
  • FIG. 15 is an illustrative sectional view in the longitudinal direction of the front image capturing apparatus according to one embodiment of the present invention.
  • FIG. 16 is an illustrative view of eyeglasses viewed from the camera side of the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 17 is an explanatory view showing the principle of illumination for making the outline of the glasses clear.
  • FIG. 18 is an explanatory view showing the effect of lighting for making the outline of the glasses clear.
  • FIG. 19 shows an example of gray processing performed on the inner surfaces ( ⁇ surface '11 surface) of the side panels 22 and 23 of the magenta accommodating portion of the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 20 is an explanatory diagram showing an example of gray processing performed on the inner surface (B surface) of the rear panel 25 of the front image photographing device according to one embodiment of the present invention.
  • FIG. 21 is an explanatory diagram showing an example of gradation processing performed on the inner surface (eight surfaces) of the front panel 20 of the camera housing section of the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 22 shows opening and closing of the front image capturing apparatus according to the embodiment of the present invention.
  • FIG. 9 is an explanatory view showing an example of black processing applied to the inner surface (C surface) of the door upper panel 28.
  • FIG. 23 is an explanatory diagram showing an example of gray processing performed on the inner surface (B-F surface) of the rear part of the lower panel 12 of the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 24 is an example of an image of metal frame glasses taken by the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 25 is an example of an image obtained by photographing cell-frame glasses using the front image photographing apparatus according to the embodiment of the present invention.
  • FIG. 26 is an example of an image obtained by photographing Nyrol glasses using the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 27 is an example of an image of one-point glasses taken by the front image photographing apparatus according to one embodiment of the present invention.
  • FIG. 28 shows an example of a display screen (before the start of photographing) in photographing glasses images.
  • FIG. 29 is an example of a display screen in the imaging of the glasses image (after the end of the imaging).
  • FIG. 30 is an example of a display screen in the mask processing (before the processing is started).
  • FIG. 31 shows an example of a display screen in the mask processing (after the processing is completed).
  • FIG. 32 is an example of a display screen in manual mask editing.
  • Fig. 33 shows an example of a display screen for data registration (before registration starts).
  • Fig. 34 shows an example of a display screen during registration (after registration is completed).
  • FIG. 35 shows a modification of the display screen in the mask processing.
  • BEST MODE FOR CARRYING OUT THE INVENTION-FIG. 1 shows a glasses image registration system according to an embodiment of the present invention. A system configuration diagram is shown that is connected to a gane sales system via a network.
  • the glasses image registration system 1 is composed of a front image photographing device 100 for photographing a front image of glasses, a bird's-eye image photographing device 100 for photographing a bird's-eye image of glasses, and image processing of photographed glasses images. And a computer 200 for processing image data.
  • the front image capturing device 10 includes a capturing box 11 for blocking external light when capturing a glasses image, and a glasses fixing member for fixing the glasses 2 to be captured.
  • Barrel Torso 30, fixed lamps 40 which are illumination means for illuminating shooting target glasses 2 fixed to torso 30, and fixed distances, facing shooting target glasses 2 fixed to torso 30
  • a digital camera 50 as an image pickup means for obtaining digital image data by photographing glasses from the camera.
  • the photographing box 11 is provided on the lower panel 12 serving as an entire base plate, and at one end of the lower panel 12 at the front end thereof.
  • the camera accommodating portion 14 has a front panel 20 on the torso 30 side, and has a lens hole 21 of the camera 50 at a position facing the glasses 2 fixed to the torso 30.
  • the rear of the camera housing 14 (K side in Fig. 15) is used to supply power to the camera 50 and the illumination lamp 40.
  • a pair of left and right side panels 22 and 23 surrounding the side of the torso 30, an upper panel 24 surrounding the upper side of the torso 30, and a rear panel surrounding the back of the torso 30 are provided. 2 5.
  • the opening / closing door 18 slides along the guide rail 13 and includes a pair of left and right side panels 26 and 27 surrounding the side surfaces, and an upper surface panel 28 surrounding the upper side.
  • FIG. 2 shows a state in which the opening and closing door 18 is opened. In this state, the glasses 2 are set on the torso 30 and the opening and closing door 18 is moved until it comes into close contact with the camera accommodating section 14 and closed. As a result, the external light is completely blocked, and it is possible to photograph the glasses 2 with the force camera 50.
  • the front panel 20 side of the shooting box 11 is called the front side
  • the rear panel 25 side is called the rear side
  • the front panel 20 is the front of the shooting box 11 and the rear panel 25 is the shooting box.
  • the upper panel 28 of 18 is referred to as the upper front side of the shooting box 11.
  • the interior of the rear panel 25, the side panels 26 and 27 of the door 18 and the top panel 28 of the door 18 is based on white, and the light of the lighting lamps described later By reflecting light from the camera, it was possible to illuminate from multiple directions without affecting the color tone of the glasses.
  • a white decorative panel is used for these panels.
  • the photographing box 11 was formed as a result, it goes without saying that the inner surface may be painted white.
  • the rear upper panel 24 is provided with an opening / closing mechanism (not shown) that can be opened and closed upward with the door 18 closed so that the illumination lamp 40 can be maintained.
  • the opening / closing door 18 is of a sliding type here, but it goes without saying that a lid for taking in and out the glasses may be provided.
  • the torso 30 is a cylindrical body on which the glasses to be photographed are set, and is vertically fixed to the lower panel 12 of the magnet housing 16.
  • a cylindrical body formed by winding white rubber on a cylindrical core made of styrene foam or the like was used. The diameter of the cylinder is set so that it does not slip down with the widest interval of the temples in the glasses 2 to be photographed.
  • a transparent acrylic on which the front parts of the glasses 2 are placed A glasses base 32 is provided.
  • the glasses pedestal 32 has a width that is approximately the width of the glasses 2 and a minimum thickness that allows the front part of the glasses 2 to be placed, so that the height of the glasses 2 and the distance to the camera 50 are fixed within a certain range. In addition, it is configured to prevent left and right inclination (axis deviation) when setting.
  • the eyeglass pedestal 32 is formed of a transparent acrylic resin plate, the reflected light from the lower panel 12 is also supplied to the lower part of the lens of the eyeglass 2 so that the eyeglass pedestal 32 can be used for eyeglasses such as a nyrole bottle. The outline of the lens can be captured more clearly.
  • the eyeglass pedestal 32 is fixed to the lower panel 12, and formed so that the lens of the eyeglasses 2 placed on the upper surface of the glass pedestal 32 has a height directly opposite to the lens of the force lens 50. Have been. Also, the glasses base 3 2 In order to prevent the shadow of glasses 2 from appearing on the torso 30, it is fixed at a position slightly away from the torso. As a result, a glasses image in which the lens portion of the glasses 2 is more clearly captured is obtained.
  • a scale and a color patch are provided on the surface of the glasses base 32 on the camera 50 side, and the photographing size and the color tone can be checked by transferring the scale and the color patch to the camera 50.
  • the illumination lamp 40 is fixed to the inner surface of the upper panel 24 of the glasses housing 16 to directly illuminate the glasses 2 set in the torso 30 from above, and the reflected light from the inner surface of the shooting box 11 Indirect illumination from all directions.
  • the illumination lamp 40 As the illumination lamp 40, a circular fluorescent lamp was used. This is because illumination with a fluorescent lamp does not easily impair the color tone of the glasses 2, is easily available, and has excellent maintainability. In addition, the reason for using a circular fluorescent lamp is that since the light emitting area is large and the light is illuminated from a wide range, shadows are hardly formed and glasses images with less disturbance can be obtained. Since the upper panel 24 has the opening / closing mechanism as described above, the illumination lamp 40 can be easily replaced.
  • the illumination lamp 40 is provided behind the glasses pedestal 32 on the inner surface of the upper panel 24 (farther from the digital camera 50). This aims at obtaining a spectacle image in which the outline of the lens of the spectacle is more clearly captured by illuminating the camera 2 from behind the camera 50.
  • Fig. 17 explains the principle.
  • the upper part of the glasses 2 reflects the direct light from the light source and is captured by the camera 50.
  • the lower part of the glasses 2 receives the light from the illumination lamp 40 and the lower panel 1
  • the light is reflected by 2 and supplied through the transparent glasses base 32, and the reflected light is captured by the camera 50. This allows As shown in Fig. 18, it has become possible to more clearly capture the outline of the lens even with glasses such as nyrol and two-point glasses.
  • the inner surfaces of the side panels 22 and 23 of the glasses housing portion 16 are subjected to 70% gray processing as shown in FIG. It has been subjected.
  • the inner surface of the rear panel 25 (the upper surface in FIG. 15) is subjected to a 40% gray treatment as shown in FIG. This is because the front panel 20 on which the camera 50 is mounted needs to be at a certain distance from the glasses 2 in order to capture the front image of the glasses 2 as flat as possible, but from the glasses 2 to the side and rear. The distance is set as small as possible due to the miniaturization of the equipment, and the reflected light from the inner surface of the shooting box 11 supplied to the glasses becomes too bright on the side and rear compared to the front.
  • the inner surfaces of the side panels 22 and 23 were treated with 70% gray, and the inner surface of the rear panel 25 was treated with 40% gray, to achieve uniform lighting conditions from all directions. .
  • the gray processing is performed by printing black at a predetermined density on synthetic paper having a plastic texture called "upo" and pasting it on the inner surface of the panel.
  • the gray treatment may be such that the inner surface of the panel is painted in a predetermined gray.
  • the inner surface (upper surface) of the rear panel 25 is rounded toward the lower panel 12 (F surface). This is to prevent the boundary between the rear panel 25 and the lower panel 12 from being caught by the force melody and becoming a disturbance.
  • the process of providing roundness on the inner surface of the rear panel 25 is as described above.
  • the 40% gray-treated rubosite was rounded and attached from the rear panel 25 to the lower panel 12.
  • the rounding of the inner surface of the rear panel 25 may be performed, for example, by using a member processed to a predetermined curvature, or by forming the imaging box 11 itself with a rounded panel. .
  • the front panel 20 is provided with a lens hole 21 of the camera 50, and the camera 50 is mounted in the camera accommodating portion 14.
  • the lens hole 21 of the force lens 50 is provided so that the center of the image of the camera substantially coincides with the center of the height of the glasses when the glasses are placed on the glasses base 32. Therefore, the lens of the glasses 2 is directly opposed to the lens hole 21 of the camera 50, and there is a problem that the lens of the camera 50 is reflected on the lens of the glasses 2.
  • the inner surface of the front panel 20 (the A surface in FIG. 15) is subjected to 40% gray processing as a whole as shown in FIG.
  • the periphery of 21 is subjected to a gradation process that darkens the center and gradually brightens toward the periphery.
  • a gradation process that darkens the center and gradually brightens toward the periphery.
  • the gradation process is performed by printing black with a predetermined density change on synthetic paper called “rubo” and pasting it on the inner surface of the panel, similarly to the gray process.
  • the lens portion of the gradation-processed lens whose center is 100% and its periphery is 40% was cut out and used.
  • the gradation is set so that the color around the lens hole 21 is almost the same as the color of the camera 500 lens. You.
  • the gradation process may be such that the inner surface of the panel is painted gray with a predetermined density change.
  • the inner surface (the C surface in FIG. 15) of the door upper panel 28 is subjected to 100% gray processing (black processing) as shown in FIG. This is intended to prevent the boundary line between the front panel 20 and the lower panel 12 from being reflected by the lens of the gun 2 and being reflected on the camera 50.
  • 100% gray processing black processing
  • the inner surface of the eyeglass accommodating portion 16 of the lower panel 12 (the surface in FIG. 15) is dark on the rear panel 25 side as shown in FIG.
  • a gradation process is applied to increase the brightness toward the position. This is because the torso 30 is fixed to the lower panel 12, and the reflected light from the lower panel 12 causes an imbalance in the brightness of the top and bottom that the bottom of the torso 30 is bright and the top is dark. Because. For this reason, gradation processing is performed on the inner surface of the eyeglass accommodating section 16 of the lower panel 12 with 70% gray on the rear panel 25 side and 0% (white) on the installation position side of the torso 30. The brightness of the top and bottom of the torso 30 became uniform, and glasses images with less disturbance could be obtained.
  • the rear panel 25 is rounded with a 40% gray-processed adhesive toward the lower panel 12, and the lower panel 12 is bonded to the rear panel 25 with a rounded surface. It is set to be almost 40% gray.
  • camera 50 As the camera 50, a 300,000-pixel class digital camera equipped with a lens having a focal length of 5 O mm was used. Also, camera 50 is USB It is connected to the computer 200 via the interface, sets the glasses 2 on the torso 30, closes the door 18, and takes a front image of the glasses by remote control from the computer 200.
  • FIGS. 24 to 27 show examples of images actually photographed by the front image photographing apparatus 10.
  • Fig. 24 shows metal frame glasses
  • Fig. 25 shows self-frame glasses
  • Fig. 26 shows Nyrol glasses
  • Fig. 27 shows two-point glasses, all of which have a uniform background and frame outline. The images are clearly captured, and the outline of the lens can be captured at a level that allows image processing even with Nyrol and two-point glasses.
  • the bird's-eye view image capturing device 100 captures a bird's-eye view image of the glasses in order to present the appearance of the glasses to the customer in the glasses sales system 300, and as shown in FIG.
  • a shooting box 1 1 1 to block external light when shooting an image an eye lamp 2 140 serving as a lighting means for illuminating the shooting target glasses 2 installed in the shooting box 1 1 1, and a shooting target It comprises a digital camera 150 as an imaging means for obtaining digital image data by photographing the glasses 2 from a certain distance.
  • the photographing box 1 1 1 is attached to the lower panel 1 1 2 serving as the entire base plate and one end of the lower panel 1 1 2 as the front part. And a camera housing section 114 for housing the camera 150, and a rear end provided at the other rear end of the lower panel 112, which has an opening in the direction of the camera housing section 114.
  • 1 2 Glasses storage section 1 16 for storing glasses installed on top of 1 2 and opening and closing door 1 1 8 sliding along guide rail 1 1 3 provided on bottom panel 1 1 2 .
  • the photographing box 111 is formed of a panel having a white color on the inner surface in the same manner as the photographing box 11 of the front image photographing apparatus 10 described above, and By using a circular fluorescent lamp as the bright lamp 140, white light is supplied to the glasses from multiple directions, so that a good external image of the glasses with less shadow and reflection can be taken.
  • the overhead image photographing device 100 is also implemented by the above-described front image photographing device 100 according to the shadow condition, uneven brightness, reflection of the lens of the glasses, etc. on the inner surface of the photographing box 111. It goes without saying that the same gray processing / gradation processing as described above may be performed.
  • the camera accommodating section 1 14 and the opening / closing door 18 of the photographing box 1 1 1 are the same as those of the front image photographing apparatus 10, and therefore description thereof is omitted.
  • the camera 150 As the camera 150, a digital camera of 300,000 pixel class equipped with a zoom lens having a focal length of 28-105 mm was used. The camera 150 is connected to the computer 200 via a USB interface.Then, set the glasses 2 in the glasses storage section 116, close the door 118, and start from the computer 200. Take a bird's-eye view of the glasses with the remote control of.
  • the computer 200 is connected to the camera 50 of the front image capturing device 10 and the camera 150 of the overhead image capturing device 100 via a USB interface, and connects the camera 50 and the camera 150 with each other. Remotely control the camera to capture the composition glasses image and the appearance glasses image and capture them all at once.
  • the captured eyeglasses image for synthesis generates image data for synthesis to be synthesized with a human image by image processing.
  • the computer 200 has a network connection function as a communication means, and transmits the generated image data to the glasses sales system 300.
  • the computer 200 that performs such processing includes a personal computer or a network with a USB interface and network connection function. Stations and the like can be used.
  • the processing can be broadly divided into three stages: “shooting glasses images”, “mask processing”, and “data registration”.
  • Figure 28 shows an example of the screen display before the start of shooting in “glasses image shooting”.
  • a “front view” button and an “appearance view” button respectively, for the digital camera 50 of the front view image capture device 10 and the digital camera 150 of the overhead view image capture device 100.
  • a shooting command is sent, and the captured image data is loaded into the computer 200 via the USB interface.
  • Fig. 29 shows an example of the screen display after shooting in “Glasses image shooting”. As shown in the figure, the captured front image and overhead image are displayed on the screen. If the shot image is bad, you can reset the glasses and press the “Front shot” button or the “Appearance shot” button to take the shot again and again. Once a good image has been captured, you can press the “next frame” button to continue capturing many images of the glasses.
  • FIG. 30 shows an example of a screen display before the processing in the “mask processing”.
  • the file name of the captured glasses image is displayed in the “original folder” section, and by pressing the “Start mask creation” button, automatic mask processing is performed on the captured glasses image.
  • Fig. 31 shows an example of the screen display after the processing in the "mask processing” is completed.
  • the front image was captured by the front image capturing device 10 in the “original image” section.
  • the front image is an image in which the scale etc. of the lower part of the front image are cut in the “display image” section, and the image in which the lens of the front image is colored in the desired color is the “frame mask” in the “composite image” section.
  • a frame mask image in which only the frame portion of the front image is extracted is displayed in the "" portion
  • a lens mask image in which only the lens portion of the front image is extracted is displayed in the "lens mask” portion.
  • the color of the lens is selected from the colors provided at the lower left.
  • a test image in which the image for synthesis is synthesized with a standard human image is displayed in the “glasses check” section.
  • the image is synthesized with the human image at the set transmittance.
  • the position of the glasses when combining with the human image can be adjusted with the arrow button.
  • Fig. 32 shows an example of the screen display of “Manual editing of mask”. As shown in the figure, press the “RGB Display” button to display the image for compositing, and press the “Translucent Mask” button to display the image obtained by translucently combining the mask image with the image for compositing. Press to display the mask image. At this time, selecting the “Edit Lens” button uses the lens mask image, and selecting the “Edit Frame Mask” button uses the frame mask image.
  • the polygon can be drawn by selecting the “Polygon Set” button and clicking on the screen with the mouse, so that the contour of the lens or frame can be set. This allows you to edit the mask manually.
  • Fig. 33 shows the screen before registration of “Data registration” is started.
  • the display example is shown.
  • other information such as price, sales status, product display flag, inventory management information, sales date, and registrant.
  • Fig. 34 shows an example of the screen display after registration of "data registration".
  • the corresponding image file is selected according to the entered product code, and the display image, frame mask image, lens mask image, image for synthesis, and appearance image are displayed in the “image” section.
  • the setting data is registered and transmitted to the Megane sales system 300 via the network.
  • FIG. 5 shows an example of an overall processing flow of the computer 200 that performs the above-described registration processing.
  • the screen for shooting glasses images is displayed (S100), and when the “Front shot” button is pressed (S1002), the camera 50 of the front image shooting device 10 is displayed.
  • a photographing command is sent, and the photographed image is acquired as a front image (S104).
  • the “appearance photographing” button is pressed (S 106)
  • a photographing command is sent to the camera 150 of the bird's-eye image photographing device 100, and the photographed image is acquired as a bird's-eye image (S 110). 8).
  • the shooting number is updated (S112), and this is repeated from S102 until the "End” button is pressed (S111)
  • the data registration screen is displayed (S124), and the “de-night registration process” (S500), which registers the image data together with the specifications of the glasses, is started and registered.
  • the transmitted data is transmitted to the glasses sales system 300 (S126).
  • FIG. 6 shows an example of the processing flow of "mask automatic processing”.
  • a “glass outline detection process” S220
  • the left lens position is estimated from the detected outline of the glasses.
  • a “lens outer circumference detection process” S 250
  • the right lens position is estimated from the detected outer circumference of the glasses (S204)
  • a “lens outer circumference detection process” S225
  • a lens outer periphery detection start point is set inside from the boundary at the predetermined feature point in consideration of the frame width of the glasses, and the outer periphery of the lens is detected from the inside of the lens toward the peripheral portion using the start point.
  • a lens mask image is generated from the left and right lens outer periphery data obtained by the “lens outer periphery detection processing” (S250, S252) (S250). 6) Then, a left-right comparison correction process is performed on the generated lens mask image (S208).
  • the lens mask image (S206) In the generation of the lens mask image (S206), the area surrounded by the left and right lens outer peripheral data is painted out, and an image in which the inside is white and the outside is black is generated to be a lens mask image.
  • the generated lens mask image is turned back from the center of the stake, and the left and right images are compared to extract a difference. If the difference exceeds a predetermined size, it is determined which of the left and right is out of the line determined by curve approximation from the lens outer peripheral data, and the other side is added to the lens mask image on the other side. Write back the lens mask image of. This makes it possible to correctly generate a lens mask image even when a label is stuck near the outer periphery of one of the lenses, or when detection of the outer periphery of the lens fails due to a shadow or reflection.
  • a frame mask image is generated from the outer periphery data (S210), and the left and right sides of the generated frame mask image are compared for correction (S212).
  • the frame mask image (S210) In generating the frame mask image (S210), the area between the outer circumference data of the glasses and the outer circumference data of the left and right lenses is filled, and an image in which the corresponding area is white and the non-applicable area is black is generated as a frame mask image.
  • a thin line is formed due to the problem of the direction of boundary detection at the overlapping part of the outer periphery of the glasses and the outer periphery of the lens. There is a possibility that this region may occur, but this can be removed by using, for example, a contraction / expansion process that contracts and expands the generated frame mask image.
  • the generated frame mask image is folded back from the center of the glasses, and the left and right images are compared to extract a difference. If the difference exceeds a predetermined size, it is determined which of the right and left is out of the line obtained by curve approximation from the outer periphery data of the lens and the outer periphery data of the lens, and the frame mask image on the off side is determined. The other side of the frame mask image is written back. This makes it possible to correctly generate a frame mask image even when the detection of the outer periphery of the glasses / lenses has failed due to a shadow or reflection.
  • FIG. 7 shows an example of a processing flow of the glasses outer periphery detection processing (S220).
  • a boundary detection start point of the glasses is selected (S2222).
  • a line approaching the feature points of the glasses from the background to the glasses section is determined in advance, and the line is selected from the start point.
  • the glasses 2 are set on the torso 30 and the lens portion is placed on the glasses pedestal 32, so that the position and the existence range of the glasses in the glasses image are limited to a certain range. Therefore, a process is performed to cut out the glasses present region 4 in the magenta image and detect the boundary of the glasses from the outer periphery of the glasses present region 4 toward the glasses.
  • the upper part of the glasses is detected from above to below, and the lower part of the glasses is detected from below to above, but the present invention is not limited to this. It is also possible to provide candidate points for approaching from a horizontal direction or an oblique direction.
  • glasses boundary detection processing for detecting a boundary from the background portion toward the glasses portion is performed (S226).
  • the luminance of each pixel on the line is extracted, and points having a luminance change equal to or greater than a predetermined value are extracted. Since the frame and lens of the glasses may be brighter or darker than the background, here, the luminance change on both the plus side and the minus side with respect to the background is detected. If the boundary detection is not successful, the flow returns to S222, and the eyeglass boundary detection processing is performed for the next eyeglass boundary detection start point (S228).
  • the eyeglasses boundary tracking process for sequentially tracking the boundaries of the glasses starting from the boundary in the following steps is performed. That is, the detected boundary is registered in the eyeglass periphery data (S230), it is detected whether or not a new boundary exists near the detected boundary (S232), and if the detection is successful (S23) 4), move to the detected new boundary (S2336), and repeat from S2330 until the tracking is completed (S238).
  • Fig. 13 eight neighboring points are selected on the basis of the current pixel, and the brightness of each pixel is extracted in a certain direction after the previous boundary. Is detected. For example, if the next boundary is detected clockwise from the adjacent point, the boundary of the glasses can be tracked clockwise.
  • next boundary is determined by curve approximation or the like from the outer circumference data detected so far until no detection is made continuously (S2400) until the predetermined boundary is not detected. Is estimated (S 2 42), and the process is repeated from S 2 32. If no detection has been performed continuously for a predetermined number of times (S240), the process returns to S222, selects the next eyeglass boundary detection start point, and repeats the eyeglass boundary tracking processing.
  • the eyeglasses boundary tracking process is performed, The process is shown in FIG. As shown in the figure, for example, starting from the eyeglass boundary detection start point P3, the boundary F1 of the eyeglasses is detected first, and the boundaries are tracked clockwise from F2, F3, F4,.... Go.
  • Tracking is completed (S 238) in principle when returning to the starting point where tracking started, but here there is a possibility of making a U-turn because the outer circumference of the glasses is interrupted on the way, It was detected that tracking was continued at a certain distance from the already detected outer circumference, and tracking was also completed in this case.
  • the missing part of the glasses outer circumference data is interpolated (S244). This is because not all of the outer circumference of the glasses is clearly captured in the glasses image, and the glasses boundary detection processing for detecting the boundary from the background to the megane in S226.
  • the outer peripheral portion of the glasses that could not be detected by the glasses boundary tracking processing of S230 to S238 is interpolated. In the interpolation, based on the detected outer circumference of the glasses, an outer circumference of the missing portion is generated by, for example, curve approximation, and added to the outer circumference data of the glasses.
  • the illegal projections are removed from the eyeglass periphery data (S246). This is to remove illegal projections on the outer periphery of the glasses due to shadows or reflections on the background.
  • the outer circumference data is estimated, and the detected eyewear outer circumference data is compared with the estimated eyewear outer circumference data. If the distance is more than a predetermined distance, the detected eyewear outer circumference data is determined to be an invalid projection, and the detected eyewear outer circumference data is estimated. Replace with data.
  • the outer circumference data of the glasses is smoothed (S248). This is to smooth out irregularities caused by unevenness in brightness at the boundary. For example, coordinate data is replaced with the average value of coordinate data in a certain range before and after. In addition, smoothing is applied to a curve estimated by least squares approximation from eyeglass circumference data. You may make it change.
  • FIG. 8 shows an example of the processing flow of the lens periphery detection processing (S250, S252). As shown in the figure, first, the starting point of the boundary detection of the lens is selected (S254).
  • the left lens boundary detection start line 6 is set inside the left lens from the one around the left lens in the outer periphery of the glasses, and the right lens out of the right lens out of the glasses outer data.
  • the right lens boundary detection start line 8 may be set at the right, and the left and right lens boundary detection start points may be selected from any positions on these boundary detection start lines.
  • the outer periphery of the lens is detected from the upper part of the lens from below to the upper part, and the lower part of the lens is detected from the upper part to the lower part.
  • the present invention is not limited to this. It is also possible to provide candidate points for approaching from a horizontal direction or an oblique direction. Then, in the same manner as the eyeglass periphery detection processing (S220), the following steps are repeated until the processing for all the candidate points is completed (S256).
  • the lens boundary detection processing for detecting the boundary is performed toward the section (S258). In detecting the boundary, the luminance of each pixel on the line is extracted, and points having a luminance change of a predetermined value or more are extracted.
  • the lens portion may be brighter or darker than the peripheral portion of the lens, the change in luminance on both the plus side and the minus side with respect to the lens portion is detected here. If the boundary detection is not successful, the flow returns to S254, and the lens boundary detection processing is performed for the next lens boundary detection start point (S260)
  • the lens boundary tracking process for sequentially tracking the boundary of the lens from the boundary as a starting point is performed by the following steps. Ie
  • the detected boundary is registered in the lens outer circumference data (S2662), and whether a new boundary exists near the detected boundary is detected (S264), and if the detection is successful (S266) ), Move to the new boundary detected (S 268), and repeat from S 262 until tracking is completed (S 270).
  • eight neighbors are used in the same way as the eyeglass perimeter detection processing, and eight adjacent points are selected based on the current pixel as shown in Fig. 13, and the brightness of each pixel in a certain direction from the next point after the previous boundary Is extracted to detect the presence or absence of a boundary. For example, if the next boundary is detected clockwise from an adjacent point, the boundary of the lens can be tracked counterclockwise.
  • next boundary is estimated by curve approximation or the like from the perimeter data detected so far until no detection is performed continuously for a predetermined number of times (S272) (S27). 2 7 4) and repeat from S 2 64.
  • the detection is not performed continuously for a predetermined number of times (S272), the process returns to S254 and returns to the next level.
  • the tracking process is repeated by selecting the start point of the boundary detection.
  • FIG. 14 shows the lens outer periphery tracking process when the above-described lens boundary tracking process is performed.
  • the left lens for example, starting from the lens boundary detection start point Q3, the boundary L1 of the glasses is detected first, and then L2, L3, L4, ... And keep track of the boundaries.
  • the right lens for example, starting from the lens boundary detection start point Q7, the boundary R1 of the glasses is detected first, and the boundaries are tracked clockwise from R2, R3, R4,.... Go.
  • Completion of tracking means, in principle, when returning to the starting point where tracking started, but here there is a possibility of making a U-turn because the outer periphery of the lens is interrupted on the way. It was detected that tracking was continued at a certain distance from the already detected outer circumference, and tracking was also completed in this case.
  • the missing portion of the lens outer circumference data is interpolated (S276). This is because not all of the outer periphery of the lens is clearly captured in the eyeglasses image, and the lens boundary detection processing that detects the boundary from the lens portion toward the lens periphery in S258 And the outer peripheral portion of the lens that could not be detected by the lens boundary tracking processing from S262 to S270.
  • outer peripheral data of the defective portion is generated by, for example, curve approximation, and added to the lens outer peripheral data.
  • the illegal projection is removed from the lens outer circumference data (S2778). This is to remove irregular projections generated on the outer periphery of the eyeglasses due to shadows and reflections.
  • the detected lens outer circumference data is compared with the estimated lens outer circumference. If the distance is a predetermined distance or more, it is determined that the projection is incorrect, and the detected lens outer circumference data is estimated. Replaced with the lens outer circumference data.
  • the lens outer circumference data is smoothed (S280). This is to smooth out irregularities caused by unevenness in brightness at the boundary, for example, by replacing the coordinate data overnight with the average value of coordinate data in a certain range before and after.
  • the smoothing may be replaced by a curve estimated from the lens outer circumference data by least squares approximation or the like.
  • FIG. 9 shows an example of the processing flow of the composite image display processing (S300).
  • the designated lens color and the designated lens transmittance input on the mask processing screen are acquired (S302).
  • an image for synthesis in which the lens mask portion in the front image is colored with the designated lens color is generated (S304), and the front image, overhead image, image for synthesis, frame mask image, and lens mask image are displayed on the screen. (S306).
  • the CPU acquires the combined position information designated by the mouse (S308), and corrects the positions of the frame mask image and the lens mask image based on the acquired combined position information (S310).
  • FIG. 10 shows an example of the processing flow of the mask manual editing processing (S400).
  • the mouse click position is obtained (S402), and a spline curve is generated based on the mouse click position information (S404). This is repeated from S402 until the "Setting" button is pressed (S406)
  • the spline curve is registered in the eyeglass outer data or lens outer data (S408), and the lens mask image is created based on the registered eyeglass outer data and lens outer data.
  • Is generated (S410), and a frame mask image is generated (S412).
  • the generation of the lens mask image and the generation of the frame mask image are performed by the same processing as in S206 and S210 in the above-described mask automatic processing.
  • FIG. 11 shows an example of the processing flow of the data registration processing (S500). As shown in the figure, when the “register” button is pressed (S502), the input “basic item” data is obtained (S504), and the input “frame information” data is obtained ( S506), the input “other information” data is acquired (S508).
  • the front image, the bird's-eye view image, the composition image, the frame mask image, and the lens mask image are registered together with the spectacles specifications (S510).
  • the glasses image registration system 1 is connected to the glasses sales system 300 via a network, and the data generated by the glasses image registration system 1 is transmitted to the glasses sales system 300. And used to sell glasses.
  • the glasses sales system 300 executes a database server 310 for recording the specifications of the megane received from the computer 200, various power data, image data, etc., and an application program for selling glasses.
  • A Prevent external intrusion when connecting the application server 320, the web server 330 that provides a user interface function with consumers, and the glasses sales system 300 to the Internet For firefighters, it consists of 340.
  • the consumer can use the Web browser to access the Web server 330 of this system, and order glasses based on the information stored in the database server 310.
  • the customer selects the desired glasses on the web server 330, an appearance image of the glasses is presented.
  • the application server 320 presents an image combined with a desired image for combining glasses.
  • the processing of combining the image for combining the glasses with the image of the consumer's face can be realized by the same processing as that from S312 to S318 in the synthetic image display processing (S300) described above. .
  • the glasses image registration system is configured such that the overhead image capturing device 100 that captures an overhead image for presenting the appearance of the glasses and the front image capturing device 1 that captures a front image for combining with a human image.
  • the invention of the present application is not limited to this, and the torso 30 in the photographing box 11 of the front image photographing device 10, the glasses pedestal 32, and each panel are provided. Overhead image capture device with removable gray processing etc. May also be used.
  • the computer 200 has been described as being provided separately from the front image processing apparatus 100 or the overhead image capturing apparatus 100.
  • the present invention is not limited to this.
  • a microcomputer may be incorporated in the image photographing apparatus 100 or the bird's-eye view image photographing apparatus 100 so as to execute the image processing function and the communication function with the glasses selling system. This makes it easy to install the eyeglass image registration system at the manufacturing site, enables communication with the eyeglass sales system by connecting the network directly to the imaging device, and builds an online eyeglass sales system.
  • the computer of the eyeglass image registration system and the eyeglass sales system are described as simply connected to a network.
  • a private line or a public telephone line is used for private connection. It is needless to say that the connection is not limited, and the connection during this time may be communicated via the Internet.
  • the imaging means of the front image capturing apparatus 10 and the overhead image capturing apparatus 100 has been described as using a digital camera.
  • the present invention is not limited to this.
  • a television camera may be used, and the video signal may be captured by a video capture board provided in the computer 200 and taken into a digital still image as a digital still image.
  • the front image capturing device 10 and the overhead image capturing device 100 can be further reduced in size.
  • the lighting means of the glasses image registration system has been described as using a fluorescent lamp.
  • the present invention is not limited to this, and may be any range within a range that does not affect the color tone of the glasses. Like a lighting lamp May be used.
  • the circular illumination lamp is described as being used, but the present invention is not necessarily limited to this, and a plurality of rod-shaped or egg-shaped illumination lamps may be provided. .
  • the light is similarly illuminated from a wide range, and a shadow image is less likely to be formed, and a glasses image with less disturbance is obtained.
  • the illumination lamp does not necessarily need to be a lamp that is continuously lit, and a flash or the like that emits light in synchronization with imaging by the imaging unit may be used, and the effects of the present invention are achieved.
  • the present invention in order to uniformly illuminate the glasses to be photographed from all directions, to equalize the brightness of the upper and lower portions of the glasses fixing member, and to suppress various disturbances from being reflected in the imaging means,
  • the inner surface is subjected to gray processing and gradation processing
  • the present invention is not necessarily limited to this, and the lighting means is dispersed and arranged, and the emission intensity is adjusted, and a reduction is provided by providing a cover or the like. It may be made to emit light, and the effect of the present invention is exhibited.
  • the description of the pre-processing of the front image targeted for the eyeglass boundary detection processing, the eyeglass boundary tracking processing, the lens boundary detection processing, and the lens boundary tracking processing is omitted. Adding shading correction processing to remove uneven brightness, adding smoothing processing to remove noise, and adding sharpening processing to enhance the outer contour of glasses and lenses. desirable. As a result, the mask automatic processing can be performed more stably.
  • the present invention is not limited to this.
  • the pitch at which the lens boundary detection process is performed is made finer, and the outer periphery of the glasses and the outer periphery of the lens are determined by the outer periphery interpolation process and the outer periphery interpolation process of the eyeglasses and the lens boundaries.
  • the eyeglass boundary detection processing in the eyeglass circumference detection processing and the lens boundary detection processing in the lens circumference detection processing take out the luminance of each pixel on the line and extract points having a luminance change equal to or more than a predetermined value.
  • the present invention is not limited to this.
  • the luminance distribution (histogram) of the entire image or a specific portion is obtained, and the background portion is determined by a modal method, a sunset filter method, a discriminant analysis method, or the like.
  • the boundary may be detected by calculating the threshold of the brightness level that separates the lens and the glasses or the lens from the surroundings.
  • a hierarchical threshold setting method This makes it possible to detect the boundary of an image with low contrast that is difficult to detect.
  • a method of sequentially performing differential processing, threshold processing, and thinning processing to obtain an outer peripheral contour may be employed.
  • the outer circumference of the glasses or the outer circumference of the lens may be obtained by utilizing the model information of the glasses.
  • a "Recreate individual mask” section with a model selection button for selecting the model of the glasses, and the mask for which the operating system is automatically generated cannot be changed.
  • the model selection button By pressing the model selection button, information registered for each model may be extracted and the mask may be regenerated.
  • the model selection button has been pressed, and if the model selection button has been pressed, it is registered in advance for each type of glasses.
  • the information may be extracted, the threshold value of the luminance change in the eyeglasses boundary detection processing and the lens boundary detection processing may be changed, and the process may return to S200 and restart the mask automatic processing. Further, the mask automatic processing may be restarted by changing the detection range of the outer circumference of the glasses or the outer circumference of the lens based on information registered for each model of the glasses.
  • the outer periphery of the lens and the outer periphery of the lens can be detected more strictly in accordance with the model of each eyeglass, so even if automatic mask generation fails, the operator can automatically select the model selection button. Pressing can easily generate a mask.
  • the threshold of the luminance level may be changed depending on the type of the glasses, and other methods are employed. In such a case, the judgment method and various judgment criteria may be changed depending on the type of glasses.
  • the manual mask editing is described as editing the outer peripheral data from a point designated by the mouse.
  • the outer peripheral data is edited.
  • a function to correct the evening may be provided.
  • the overnight registration processing has been described as being performed in the computer 200.
  • the registration may be directly performed in the database server 310 of the glasses sales system 300 via a network. Say things Not even.
  • the data registration process is described assuming that the registrant inputs basic items such as a product code and a product number, frame information, and other information.
  • a reading unit may be provided so that a part or the front of the information is automatically input.
  • the label may be read by, for example, providing the computer 200 with a 0 C R function or a bar code reading function to read characters or bar codes written on the label attached to the glasses.
  • data on the frame shape or lens shape stored in advance may be extracted from the information read by the level reading means, and based on the data, the outer circumference detection processing for the glasses and the outer circumference detection processing may be performed.
  • the detection range can be narrowed according to the shape of the glasses and the shape of the lens, and the boundary detection processing can be performed according to the shape, so that more reliable mask automatic processing can be performed.
  • a photographing means for photographing an image of glasses a synthesizing image generating means for generating a synthesizing image for synthesizing a human image from an image photographed by the photographing means, Since there is provided a registration means for registering the composition image generated by the composition image generation means together with the specifications of the glasses, an image data which can be combined with a human image no matter when, where, and by whom. Can be obtained quickly at low cost.

Abstract

A spectacles image registering system which can pick up spectacles image of a predetermined quality irrespective of time, place or operator and rapidly obtain spectacles image to be synthesized with a portrait image at a low cost. This system comprises an image pickup device (10) to pick up frontal image of spectacles, an image pickup device (100) to pick image of the spectacles from above, and a computer (200) which generates image data to be synthesized with the portrait image by image processing of the picked-up frontal image and registers it together with specifications of the spectacles. The image processing comprises spectacles outer periphery detection for detecting the outer periphery of the spectacles from a background part toward a spectacles part, and lens outer periphery detection for detecting the outer periphery of the lens from a lens part to a lens peripheral part by estimating the lens part from the detected spectacles outer periphery, and generates a frame mask image and a lens mask image to be synthesized with the portrait image. Registered data is transmitted to a spectacles sales system (300) via a network.

Description

明 細 書 メガネ画像登録システムおよびメガネ画像登録方法 技術分野  Description Glasses image registration system and glasses image registration method
この発明はメガネを撮影してコンピュータ画面上で人物像と合成可能 な画像データを生成して登録するメガネ画像登録システムおよびメガネ 画像登録方法に関し、 特にコンピュータを使用してメガネの販売サ一ビ スを行うメガネ販売システムに使用する画像デ一夕を生成して登録する メガネ画像登録システムおよびメガネ画像登録方法に関する。 背景技術  The present invention relates to an eyeglass image registration system and an eyeglass image registration method for generating and registering image data that can be combined with a human image on a computer screen by photographing eyeglasses, and more particularly to a sales service for eyeglasses using a computer. The present invention relates to a glasses image registration system and a glasses image registration method for generating and registering an image data to be used in a glasses sales system that performs the image processing. Background art
従来、 メガネの販売は需要者がメガネ店に赴き、 メガネ店に用意され たメガネを実際に試着して希望するメガネを選択することにより行われ ていた。  In the past, eyeglasses were sold by a customer going to an eyeglass store, actually trying on the eyeglasses prepared at the eyeglass store and selecting the desired glasses.
この場合、 レンズの度数については視力測定をしたり、 矯正用のメガ ネから最適な度数を選択することで対応可能であるが、 レンズの色ゃメ ガネフレームは実際に試着して似合うかどうかを確認することが必要に なり、 あらゆる種類のメガネを準備しておかなければならなかった。 特に、 今日ではメガネフレームは、 チタン等の金属を用いたメタルフ レーム、 プラスチックを用いたセルフレーム、 金属またはプラスチック のリムにナイロン糸でレンズを吊り下げ固定したナイロール、 レンズに 穴を空けてフレームをねじ止めしたツーポイント等、 多品種にわたり、 新しいデザインのメガネが次々に製造される中で、 すべての品種のメガ ネを店頭に揃えておく ことは困難である。  In this case, the power of the lens can be dealt with by measuring the eyesight or selecting the optimum power from the corrective lens, but the color of the lens and whether the frame is suitable for actual fitting It was necessary to check and all kinds of glasses had to be prepared. In particular, today, eyeglass frames are made of metal frames made of metal such as titanium, cell frames made of plastic, nylon rolls with a nylon thread hung on a metal or plastic rim, and holes made in the lens. As eyeglasses with new designs are produced one after another in a wide variety of products, such as screwed two-points, it is difficult to keep all types of glasses in stores.
このため、 特開 2 0 0 1 — 3 5 0 9 8 2等で開示されているように、 店舗に設置した端末で、 需要者の顔の画像を撮影し、 あらかじめ記憶さ せたメガネ画像と合成し、 コンピュータ画面に表示させることで、 メガ ネの在庫がなくても、 需要者が希望するデザィンのメガネを選択できる メガネ販売システムが開発されている。 For this reason, as disclosed in Japanese Patent Application Laid-Open No. 2000-35092, Using a terminal installed at the store, the customer's face image is captured, combined with the pre-stored eyeglass image, and displayed on the computer screen. An eyeglass sales system has been developed that allows designers to select their eyeglasses.
また、 イン夕一ネッ ト等のネッ トワーク技術の発達により、 ネッ トヮ —ク上に仮想店舗を設け、 需要者が当該仮想店舗にアクセスして、 人手 を介することなくメガネを販売するメガネ販売システムも開発されてい るが、 この場合においても、 需要者のコンピュータから顔の画像データ を受信し、 あらかじめ記憶させたメガネ画像と合成した画像を生成し、 需要者のコンピュータに送信して画面表示することにより、 需要者が希 望するデザィンのメガネを選択できるようにしたメガネ販売システムが 考えられる。  In addition, due to the development of network technology such as the Internet, a virtual store has been set up on the network, and customers have access to the virtual store to sell eyeglasses without manual intervention. A system has also been developed, but in this case as well, it receives face image data from the consumer's computer, generates an image synthesized with the glasses image stored in advance, and sends it to the consumer's computer for screen display. By doing so, a glasses sales system that allows consumers to select the glasses of the desired design is conceivable.
尚、 上記メガネ販売システムにおいて、 需要者の顔の画像データは、 例えばディジ夕ルカメラで撮影して、 需要者のコンピュータに取込んだ ものを使用すればよい。  In the above-mentioned eyeglass sales system, the image data of the customer's face may be used by photographing it with, for example, a digital camera and taking it into the consumer's computer.
このようなメガネ販売システムにおいて、 人物像にメガネ画像を合成 するには、 メガネの画像データが合成可能な形態であらかじめ登録され ていることが必要となる。  In such a glasses sales system, in order to combine a glasses image with a person image, it is necessary that the image data of the glasses be registered in a form that can be combined in advance.
このような画像データは、 メガネの設計に C A Dが使用されている場 合には C A Dデータを利用することで生成できるが、 メガネの設計に C A Dが使用されていない場合が多く存在し、 その場合にはあらためて図 面を起こすか、 または製造されたメガネをカメラで撮影し、 そこから合 成可能な画像データを生成する必要がある。  Such image data can be generated by using CAD data when CAD is used for designing glasses, but there are many cases where CAD is not used for designing glasses. In order to do this, it is necessary to raise the drawing again, or to photograph the manufactured glasses with a camera, and generate synthesizable image data from them.
しかしながら、 あらためて図面を起こす方法は、 作業の手戻りとなる 上、 製造現場で試作されたメガネを、 販売店やインターネッ トの仮想店 舗で即注文を受付けるというような迅速な処理を行うことは困難である また、 メガネをカメラで撮影して合成可能な画像データを生成する方 法は、 所定の品質でメガネを撮影し、 撮影されたメガネ画像の中から適 当な画像を選択してコンピュー夕に取込み、 メガネのフレーム部分やレ ンズ部分を指定したデータに変換する作業を行う必要がある。 このよう な、 撮影やコンピュータ処理は専門知識と熟練技術を必要とするため、 従来は、 プロのカメラマンがスタジオでメガネを撮影し、 コンピュータ グラフィ ックスの専門家の手によって撮影された画像データをコンビュ —夕処理していた。 However, recreating a drawing would be a reworking process, and it would not be possible to quickly process eyeglasses prototyped at a manufacturing site, such as accepting an order immediately at a store or a virtual store on the Internet. Have difficulty In addition, a method of generating image data that can be synthesized by shooting glasses with a camera is to shoot the glasses with predetermined quality, select an appropriate image from the captured glasses images, and import it to a computer. It is necessary to convert the frame and lens parts of the glasses into the specified data. Conventionally, since photographing and computer processing require specialized knowledge and skill, a professional photographer shoots glasses in a studio and views image data taken by a computer graphics expert. —I was processing it in the evening.
このため、 撮影やコンピュータ処理に多大なコス トを要するとともに 、 撮影やコンピュータ処理のためにメガネを搬送する必要があり、 これ らがメガネの価格低減や迅速な販売を行う上で大きな障害となっていた それゆえに、 本願発明の主たる目的は、 何時、 何処で、 誰が行っても 、 人物像と合成可能な画像データを低コス トで迅速に得ることができる メガネ画像登録システムおよびメガネ画像登録方法を提供することであ る。 発明の開示  This requires enormous costs for shooting and computer processing, and also requires transport of eyeglasses for shooting and computer processing, which is a major obstacle to reducing the price of glasses and promptly selling them. Therefore, a main object of the present invention is to provide a low-cost and quickly obtainable image data that can be combined with a human image at any time, where, and by any person. It is to provide. Disclosure of the invention
請求項 1 に記載のメガネ画像登録システムは、 メガネの画像を撮影す る撮影手段と、 撮影手段により撮影された画像から人物像と合成するた めの合成用画像を生成する合成用画像生成手段と、 合成用画像生成手段 により生成された合成用画像を当該メガネの諸元とともに登録する登録 手段とを備えたものである。  The glasses image registration system according to claim 1, wherein the image capturing unit captures an image of the glasses, and a combining image generating unit configured to generate a combining image for combining a human image from the image captured by the capturing unit. And registration means for registering the composition image generated by the composition image generation means together with the specifications of the glasses.
撮影手段によりメガネ画像を撮影し、 合成用画像生成手段により人物 像と合成可能な合成用画像を生成し、 登録手段により当該メガネの諸元 とともに登録するので、 何時、 何処で、 誰が行っても、 人物像と合成可 能な画像データを低コス 卜で迅速に得ることができる。 An image of the glasses is taken by the photographing means, an image for composition which can be combined with the human image is produced by the image generating means for composition, and specifications of the glasses are produced by the registration means Because it is registered with the user, image data that can be combined with a human image can be obtained quickly and at low cost, no matter when, where, and by whom.
請求項 2に記載のメガネ画像登録システムは、 請求項 1に記載のメガ ネ画像登録システムであって、 撮影手段は開閉式の扉を有し撮影するメ ガネを収容する撮影ボックスと撮影ボックスに収容されたメガネを照明 する照明手段と撮影ボックスに収容されたメガネを撮影してディジ夕ル 画像デ一夕を得る撮像手段とを備え、 撮影するメガネを撮影ボックスに 収容し、 扉を閉じてメガネ画像を撮影するものである。  The eyeglass image registration system according to claim 2 is the eyeglass image registration system according to claim 1, wherein the photographing means includes a photographing box having an openable / closable door and accommodating glasses for photographing. It is equipped with lighting means for illuminating the housed glasses and imaging means for taking images of the glasses housed in the shooting box and obtaining digital images. The glasses for shooting are housed in the shooting box, and the door is closed. This is for taking a glasses image.
これにより、 外光の影響を受けることなく、 何時、 何処で、 誰が行つ ても、 所定の品質のメガネ画像を簡便に撮影できる。  As a result, it is possible to easily take a spectacle image of a predetermined quality at any time, anywhere and by anyone without being affected by external light.
請求項 3に記載のメガネ画像登録システムは、 請求項 1または請求項 2に記載のメガネ画像登録システムであって、 撮影手段はメガネの正面 画像を撮影する手段を含むものである。  The eyeglass image registration system according to claim 3 is the eyeglass image registration system according to claim 1 or 2, wherein the photographing unit includes a unit that photographs a front image of the glasses.
これにより、 人物像と正面合成するためのメガネ画像を取得できる。 請求項 4に記載のメガネ画像登録システムは、 請求項 1ないし請求項 3のいずれかに記載のメガネ画像登録システムであって、 撮影手段はメ ガネの俯瞰画像を撮影する手段を含むものである。  As a result, it is possible to acquire a glasses image for frontal composition with a human image. A glasses image registration system according to a fourth aspect is the glasses image registration system according to any one of the first to third aspects, wherein the photographing unit includes a unit that photographs a bird's-eye view image of the Megane.
これにより、 メガネ販売システムにおいて使用するメガネの外観画像 を取得できる。  As a result, an external appearance image of the glasses used in the glasses sales system can be obtained.
請求項 5に記載のメガネ画像登録システムは、 請求項 1ないし請求項 4のいずれかに記載のメガネ画像登録システムであって、 合成用画像生 成手段は撮影されたメガネのフレーム部分を指定するフレームマスク画 像と撮影されたメガネのレンズ部分を指定するレンズマスク画像とを含 むマスクを生成するマスク生成手段を有するものである。  The eyeglass image registration system according to claim 5 is the eyeglass image registration system according to any one of claims 1 to 4, wherein the composition image generation unit specifies a frame portion of the captured glasses. It has a mask generating means for generating a mask including a frame mask image and a lens mask image designating a lens portion of the taken glasses.
生成されたフレームマスク画像により人物像にメガネを合成する際の フレーム部分を撮影されたメガネ画像に置換でき、 生成されたレンズマ スク画像により人物像にメガネを合成する際のレンズ部分をメガネのレ ンズと半透明合成でき、 メガネ販売システムにおける人物像とメガネの 合成が容易に行える。 With the generated frame mask image, the frame part when combining the eyeglasses with the human image can be replaced with the captured eyeglass image, and the generated lens mask The lens portion used to combine the glasses with the person image using the mask image can be translucently combined with the glasses lens, making it easy to combine the person image and the glasses in the glasses sales system.
請求項 6に記載のメガネ画像登録システムは、 請求項 5に記載のメガ ネ画像登録システムであって、 マスク生成手段は撮影されたメガネ画像 のメガネの外周を検出するメガネ外周検出手段と撮影されたメガネ画像 のレンズの外周を検出するレンズ外周検出手段とを含み、 メガネ外周検 出手段により検出されたメガネの外周とレンズ外周検出手段により検出 されたレンズの外周とからフレームマスク画像を生成し、 レンズ外周検 出手段により検出されたレンズの外周からレンズマスク画像を生成する 機能を有するものである。  The eyeglass image registration system according to claim 6 is the magne image registration system according to claim 5, wherein the mask generation unit is configured to detect an outer periphery of the eyeglasses of the captured eyeglass image and to perform an image capturing operation. A lens outer circumference detecting means for detecting the outer circumference of the lens of the eyeglasses image, wherein a frame mask image is generated from the outer circumference of the glasses detected by the outer circumference detecting means of the glasses and the outer circumference of the lens detected by the outer circumference detecting means, It has a function of generating a lens mask image from the outer periphery of the lens detected by the outer periphery detecting means.
メガネ外周検出手段により検出されたメガネの外周はメガネの外形を 表し、 レンズ外周検出手段により検出されたレンズの外周はメガネ内の レンズの範囲を表すので、 検出されたメガネの外周と検出されたレンズ の外周とで囲まれる範囲はメガネのフレーム部分とみなすことができ、 検出されたレンズの外周に囲まれる範囲はメガネのレンズ部分とみなす ことができる。  The outer circumference of the glasses detected by the outer circumference detecting means represents the outer shape of the glasses, and the outer circumference of the lens detected by the outer circumference detecting means represents the range of the lens in the glasses. The range surrounded by the outer periphery of the lens can be regarded as the frame portion of the glasses, and the range surrounded by the detected outer periphery of the lens can be regarded as the lens portion of the glasses.
このような画像処理により、 フレームマスク画像とレンズマスク画像 が自動的に生成でき、 誰でも容易に人物像と合成可能な合成用画像デー 夕を登録できる。  Through such image processing, a frame mask image and a lens mask image can be automatically generated, and anyone can register image data for synthesis that can be easily synthesized with a human image.
また、 メタルフレームやセルフレームのようなフルリムメガネばかり でなく、 ナイロールやツーポイント等のようにリムの一部または前部を 欠くメガネに対しても、 特別な情報を要することなく 自動的に合成用画 像データを生成できる。  Also, not only full-rim glasses such as metal frames and cell frames, but also glasses that lack a part or the front of the rim, such as nyrolls or two-points, are automatically synthesized without the need for special information. Image data can be generated.
請求項 7に記載のメガネ画像登録システムは、 請求項 6に記載のメガ ネ画像登録システムであって、 メガネ外周検出手段は撮影されたメガネ 画像の背景部からメガネ部に向ってメガネの境界を検出するメガネ境界 検出手段を含み、 レンズ外周検出手段はメガネ外周検出手段により検出 されたメガネの外周からレンズ部を推定するレンズ部推定手段とレンズ 部推定手段により推定されたレンズ部からレンズ周辺部に向ってレンズ の境界を検出するレンズ境界検出手段とを含むものである。 An eyeglass image registration system according to claim 7, wherein the eyeglass periphery detecting means is a captured eyeglass. The present invention further includes a glasses boundary detecting means for detecting a boundary of the glasses from the background part of the image toward the glasses part, wherein the lens outer circumference detecting means includes a lens part estimating means for estimating the lens part from the outer circumference of the glasses detected by the glasses outer circumference detecting means. Lens boundary detecting means for detecting a boundary of the lens from the lens part estimated by the lens part estimating means toward the peripheral part of the lens.
メガネ画像の背景部からメガネ部に向ってメガネの境界を検出するこ とでメガネの外周を容易に検出できる。 また、 検出されたメガネの外周 からメガネ画像のレンズ部を推定し、 レンズ部の周辺付近からレンズ周 辺部に向って境界を検出することで、 レンズに貼られたラベルやレンズ 内の写りこみ等の影響を抑制し、 容易にレンズの外周を検出できる。 請求項 8に記載のメガネ画像登録システムは、 請求項 7に記載のメガ ネ画像登録システムであって、 メガネ外周検出手段はメガネ境界検出手 段により検出されたメガネの境界を出発点として近傍のメガネの境界を 順次検出して追跡するメガネ境界追跡手段を含み、 レンズ外周検出手段 はレンズ境界検出手段により検出されたレンズの境界を出発点として近 傍のレンズの境界を順次検出して追跡するレンズ境界追跡手段を含むも のである。  By detecting the boundary of the glasses from the background portion of the glasses image toward the glasses portion, the outer periphery of the glasses can be easily detected. In addition, the lens portion of the glasses image is estimated from the detected outer periphery of the glasses, and the boundary is detected from the vicinity of the lens portion to the periphery of the lens, so that the label attached to the lens and the reflection in the lens are detected. And other factors, and the outer periphery of the lens can be easily detected. The eyeglass image registration system according to claim 8 is the magne image registration system according to claim 7, wherein the eyeglass perimeter detection means uses a boundary of the eyeglasses detected by the eyeglass boundary detection means as a starting point, and determines a neighborhood of the eyeglass periphery. Including a glasses boundary tracking means for sequentially detecting and tracking the boundaries of the glasses, and the lens outer circumference detection means sequentially detects and tracks the boundaries of the nearby lenses starting from the lens boundaries detected by the lens boundary detection means. It includes lens boundary tracking means.
メガネ境界追跡手段により、 検出されたメガネの境界を出発点として 近傍のメガネの境界を順次検出して追跡するので、 メガネの外周を効率 よく検出でき、 複雑な形状のリムや鼻パッ ド等により入り組んだ外形を 有する場合でもメガネの外周を正しく検出することが可能となる。 また 、 レンズ境界追跡手段により、 検出されたレンズの境界を出発点として 近傍のレンズの境界を順次検出して追跡するので、 レンズの外周を効率 よく検出できる。  The eyeglass boundary tracking means sequentially detects and tracks the boundaries of nearby glasses starting from the detected eyeglass boundary, so that the outer circumference of the eyeglasses can be detected efficiently, and rims and nose pads with complex shapes can be used. Even if it has a complicated outer shape, it is possible to correctly detect the outer periphery of the glasses. Also, since the lens boundary tracking means sequentially detects and tracks the boundaries of nearby lenses starting from the detected boundary of the lens, the outer periphery of the lens can be detected efficiently.
請求項 9に記載のメガネ画像登録システムは、 請求項 6ないし請求項 8のいずれかに記載のメガネ画像登録システムであって、 メガネ外周検 出手段は検出されたメガネの外周の欠損部を補間するメガネ外周補間手 段を含み、 レンズ外周検出手段は検出されたレンズの外周の欠損部を補 間するレンズ外周補間手段を含むものである。 The eyeglass image registration system according to claim 9 is the eyeglass image registration system according to any one of claims 6 to 8, wherein: The output means includes a spectacle outer circumference interpolation means for interpolating the detected defective portion on the outer periphery of the spectacles, and the lens outer peripheral detecting means includes a lens outer peripheral interpolation means for interpolating the detected defective portion on the outer periphery of the lens.
これにより、 メガネ外周検出手段やレンズ外周検出手段において境界 が明瞭でない等のために外周データに欠損部を生じた場合でも、 検出さ れた外周データから欠損部の外周デ一夕を推定して補間することが可能 となる。  As a result, even if a missing portion is generated in the outer circumference data because the boundary is not clear in the eyeglass outer circumference detecting means or the lens outer circumference detecting means, the outer circumference data of the defective portion is estimated from the detected outer circumference data. It is possible to interpolate.
請求項 1 0に記載のメガネ画像登録システムは、 請求項 6ないし請求 項 9のいずれかに記載のメガネ画像登録システムであって、 メガネ外周 検出手段は検出されたメガネの外周の不正な突起部を除去するメガネ外 周不正突起除去手段を含み、 レンズ外周検出手段は検出されたレンズの 外周の不正な突起部を除去するレンズ外周不正突起除去手段を含むもの である。  The eyeglass image registration system according to claim 10, wherein the eyeglass periphery detection means is an incorrect projection on the periphery of the detected glasses. The lens outer periphery detecting means includes a lens outer periphery illegal protrusion removing means for removing the detected irregular protrusion on the outer periphery of the lens.
これにより、 メガネ外周検出手段やレンズ外周検出手段において影や 写りこみ等のために外周データに不正な突起部を生じた場合でも、 検出 された外周データから突起部の外周データを推定して不正な突起部を除 去することが可能となる。  As a result, even when an incorrect projection is generated in the outer circumference data due to a shadow, reflection, or the like in the eyeglass outer circumference detecting means or the lens outer circumference detecting means, the outer circumference data of the projection is estimated from the detected outer circumference data, and the illegal data is detected. It is possible to remove the unnecessary projections.
請求項 1 1 に記載のメガネ画像登録システムは、 請求項 6ないし請求 項 1 0のいずれかに記載のメガネ画像登録システムであって、 マスク生 成手段はメガネの機種情報を取得するメガネ機種情報取得手段を含み、 メガネ外周検出手段およびノまたはレンズ外周検出手段はメガネ機種情 報取得手段により取得されたメガネの機種情報を活用してメガネの外周 および Zまたはレンズの外周を検出する機能を有するものである。  An eyeglass image registration system according to claim 11 is the eyeglass image registration system according to any one of claims 6 to 10, wherein the mask generation unit acquires eyeglass model information. The eyeglass outer circumference detecting means and the lens or lens outer circumference detecting means have a function of detecting the outer circumference of the glasses and the outer circumference of Z or the lens by utilizing the model information of the eyeglasses obtained by the eyeglass model information obtaining means. Things.
これにより、 メガネの外周やレンズの外周の検出が難しいメガネの機 種を含む場合でも、 取得されたメガネの機種情報を活用することで、 自 動的にマスクを生成することが可能となる。 また、 オペレータが当初生成されたマスクを不適切と判断した場合に 、 画面上でメガネの機種選択ボタンを押すことによってマスクが再作成 されるようにしてもよい。 This makes it possible to automatically generate a mask by using the acquired model information of the eyeglasses even when the type of eyeglasses or the type of eyeglasses whose detection of the outer circumference of the lens is difficult is included. Further, when the operator determines that the initially generated mask is inappropriate, the mask may be re-created by pressing the model selection button of the glasses on the screen.
これにより、 単一の処理によって目的とするすべての機種のメガネに 対応することが困難な場合であっても、 オペレー夕が補助的に機種選択 ポタンを押すことで容易にマスクを生成できる。  As a result, even when it is difficult to handle all types of glasses with a single processing, it is possible for the operator to easily generate a mask by pressing the model selection button.
請求項 1 2に記載のメガネ画像登録システムは、 請求項 5ないし請求 項 1 1のいずれかに記載のメガネ画像登録システムであって、 マスク生 成手段は生成されたフレームマスク画像およびノまたは生成されたレン ズマスク画像について左右の画像を比較して補正する左右比較補正手段 を含むものである。  The eyeglasses image registration system according to claim 12 is the eyeglasses image registration system according to any one of claims 5 to 11, wherein the mask generation unit includes the generated frame mask image and the generated frame mask image. The left and right comparison correction means for comparing and correcting the left and right images with respect to the lens mask image.
これにより、 メガネのフレームまたはレンズの左右いずれかに影や写 りこみ等があってフレームマスク画像またはレンズマスク画像の一部に 不正部分を生じた場合でも、 これを是正することが可能となる。  This makes it possible to correct even if there is a shadow or reflection on the left or right side of the frame or lens of the glasses and an incorrect part is generated in a part of the frame mask image or the lens mask image.
請求項 1 3に記載のメガネ画像登録システムは、 請求項 5ないし請求 項 1 2のいずれかに記載のメガネ画像登録システムであって、 マスク生 成手段はボインティ ングデバイスにより指定されたボイントデータから マスクを編集するマスク手動編集手段を含むものである。  The eyeglass image registration system according to claim 13 is the eyeglass image registration system according to any one of claims 5 to 12, wherein the mask generation unit uses point data specified by a pointing device. It includes a mask manual editing means for editing a mask.
これにより、 自動的にフレームマスク画像やレンズマスク画像の生成 が困難な場合でも、 ポインティ ングデバイスにより撮影されたメガネ画 像のフレーム部分やレンズ部分を指定することで、 手動でフレームマス ク画像やレンズマスク画像を編集したり、 自動生成された画像データを 修正することが可能となる。  As a result, even when it is difficult to automatically generate a frame mask image or a lens mask image, it is possible to manually specify the frame portion or the lens portion of the glasses image captured by the pointing device, thereby manually setting the frame mask image or the lens portion. It becomes possible to edit the mask image and correct the automatically generated image data.
請求項 1 4に記載のメガネ画像登録システムは、 請求項 1ないし請求 項 1 3のいずれかに記載のメガネ画像登録システムであって、 合成用画 像生成手段はあらかじめ登録された人物像と撮影されたメガネ画像を合 成して表示する合成表示手段を含むものである。 The eyeglass image registration system according to claim 14 is the eyeglass image registration system according to any one of claims 1 to 13, wherein the image-for-synthesis generation unit includes a pre-registered human image and a photographed image. The glasses images It includes a composite display means for displaying and composing.
これにより、 撮影されたメガネ画像をその場で人物像と合成するテス トが行えるので、 撮影が適切でなかった場合はその場で撮り直すことが でき、 品質のよい合成用画像データを提供できる。  This makes it possible to perform a test to combine the captured glasses image with a human image on the spot, so that if the shooting is not appropriate, it can be retaken on the spot and provide high-quality image data for synthesis. .
請求項 1 5に記載のメガネ画像登録システムは、 請求項 1 4に記載の メガネ画像登録システムであって、 合成表示手段は人物像に合成するメ ガネ画像のレンズの色と透過率を指定する機能を有するものである。  The eyeglass image registration system according to claim 15 is the eyeglass image registration system according to claim 14, wherein the combining display unit specifies a color and a transmittance of a lens of the glasses image to be combined with the human image. It has a function.
これにより、 撮影されたメガネ画像をその場で人物像と合成する際に 、 レンズの色や透過率を指定できるので、 合成の結果を見て、 商品の登 録内容を変更したり、 撮影のやり直しができ、 より品質のよい合成用画 像データを提供できる。  This allows you to specify the color and transmittance of the lens when combining the captured glasses image with the person image on the spot, so that you can change the registered contents of the product or change It is possible to redo and provide higher quality image data for synthesis.
請求項 1 6に記載のメガネ画像登録システムは、 請求項 1 4または請 求項 1 5に記載のメガネ画像登録システムであって、 合成表示手段は人 物像に合成するメガネ画像の位置を調節する機能を有するものである。  The eyeglass image registration system according to claim 16 is the eyeglass image registration system according to claim 14 or claim 15, wherein the combining display unit adjusts a position of the glasses image to be combined with the human image. It has a function to perform.
これにより、 撮影されたメガネ画像をその場で人物像と合成する際に 、 人物像とメガネの相対位置を変更できるので、 合成する際の最適な位 置を設定することが可能となる。  Accordingly, when the captured glasses image is combined with the human image on the spot, the relative position between the human image and the glasses can be changed, so that it is possible to set an optimal position for the combination.
請求項 1 7に記載のメガネ画像登録システムは、 請求項 1ないし請求 項 1 6のいずれかに記載のメガネ画像登録システムであって、 登録手段 は撮影されたメガネのレンズ部に設けられたラベルを読み取るラベル読 取手段を備えたものである。  The eyeglass image registration system according to claim 17 is the eyeglass image registration system according to any one of claims 1 to 16, wherein the registration unit includes a label provided on a lens unit of the captured glasses. It is provided with a label reading means for reading the label.
これにより、 撮影されたメガネ画像に写しこまれたラベルを自動的に 読み取って商品登録を行うことができるので、 人為的な登録ミスの発生 を防止して、 より簡便に合成用画像データを提供できる。 また、 読み取 られたラベル情報をもとにメガネの外周検出やレンズの外周検出を行う ことで、 影や写りこみ等のノイズによる誤検出を抑え、 より信頼性の高 いマスク生成が行えるようになる。 As a result, it is possible to automatically read the label imprinted on the captured glasses image and register the product, preventing the occurrence of artificial registration errors and providing image data for composition more easily. it can. In addition, by detecting the outer circumference of the glasses and the outer circumference of the lens based on the read label information, false detection due to noise such as shadows and reflections is suppressed, and higher reliability is achieved. Mask generation can be performed.
請求項 1 8に記載のメガネ画像登録システムは、 請求項 1ないし請求 項 1 7のいずれかに記載のメガネ画像登録システムであって、 登録手段 により登録されたデータをメガネ販売システムに送信する通信手段を備 えたものである。  A glasses image registration system according to claim 18 is the glasses image registration system according to any one of claims 1 to 17, wherein the communication transmits data registered by the registration unit to the glasses sales system. It has the means.
これにより、 登録されたデータをオンラインでメガネ販売システムに 提供できるので、 メガネの販売をより迅速かつ低コス トで行うことが可 能となる。  As a result, the registered data can be provided to the eyeglass sales system online, which makes it possible to sell eyeglasses more quickly and at lower cost.
請求項 1 9に記載のメガネ画像登録方法は、 メガネの画像を撮影する ステップと、 撮影された画像から人物像と合成するための合成用画像を 生成するステツプと、 生成された合成用画像を当該メガネの諸元ととも に登録するステツプとを備えたものである。  The eyeglasses image registration method according to claim 19, further comprising: a step of photographing an image of the glasses, a step of generating an image for combination to be combined with a human image from the photographed image, and a step of generating the image for combination. It is provided with a step to be registered along with the specifications of the glasses.
メガネ画像を撮影し、 撮影された画像から人物像と合成可能な合成用 画像を生成し、 生成された合成用画像を当該メガネの諸元とともに登録 するステップを備えるので、 何時、 何処で、 誰が行っても、 人物像と合 成可能な画像データを低コス 卜で迅速に得ることができる。  It includes a step of taking a glasses image, generating a combining image that can be combined with a human image from the captured image, and registering the generated combining image together with the specifications of the glasses, so that when, where, and by whom Even if it is performed, image data that can be combined with a human image can be quickly obtained at low cost.
請求項 2 0に記載のメガネ画像登録方法は、 請求項 1 9に記載のメガ ネ画像登録方法であって、 合成用画像を生成するステツプは撮影された メガネのフレーム部分を指定するフレームマスク画像と撮影されたメガ ネのレンズ部分を指定するレンズマスク画像とを含むマスクを生成する ステップを有するものである。  The eyeglass image registration method according to claim 20 is the method according to claim 19, wherein the step of generating the image for combination includes a frame mask image that specifies a frame portion of the captured glasses. And generating a mask including a lens mask image designating a captured lens portion of the lens.
生成されたフレームマスク画像により人物像にメガネを合成する際の フレーム部分を撮影されたメガネ画像に置換でき、 生成されたレンズマ スク画像により人物像にメガネを合成する際のレンズ部分をメガネのレ ンズと半透明合成でき、 メガネ販売システムにおける人物像とメガネの 合成が容易に行える。 請求項 2 1に記載のメガネ画像登録方法は、 請求項 2 0に記載のメガ ネ画像登録方法であって、 マスクを生成するステツプは撮影されたメガ ネ画像のメガネの外周を検出するステツプと撮影されたメガネ画像のレ ンズの外周を検出するステップと検出されたメガネの外周と検出された レンズの外周とからフレームマスク画像を生成するステツプと検出され たレンズの外周からレンズマスク画像を生成するステップとを含むもの である。 The frame part when combining the glasses with the person image by the generated frame mask image can be replaced with the captured glasses image, and the lens part when combining the glasses with the person image using the generated lens mask image is the lens of the glasses. And a translucent composition, and the composition of the person image and the glasses in the glasses sales system can be easily performed. The eyeglass image registration method according to claim 21 is the eyeglass image registration method according to claim 20, wherein the step of generating the mask includes the step of detecting the outer periphery of the eyeglasses of the captured eyeglass image. A step of detecting the outer circumference of the lens of the captured eyeglass image, a step of generating a frame mask image from the outer circumference of the detected eyeglasses and the outer circumference of the detected lens, and a step of generating a lens mask image from the outer circumference of the detected lens And steps.
メガネの外周を検出するステツプにより検出されたメガネの外周はメ ガネの外形を表し、 レンズの外周を検出するステップにより検出された レンズの外周はメガネ内のレンズの範囲を表すので、 検出されたメガネ の外周と検出されたレンズの外周とで囲まれる範囲はメガネのフレーム 部分とみなすことができ、 検出されたレンズの外周に囲まれる範囲はメ ガネのレンズ部分とみなすことができる。  The perimeter of the glasses detected by the step of detecting the perimeter of the glasses represents the outer shape of the glasses, and the perimeter of the lenses detected by the step of detecting the perimeter of the lenses represents the range of the lenses in the glasses. The range surrounded by the outer circumference of the glasses and the detected outer circumference of the lens can be regarded as the frame part of the glasses, and the range surrounded by the detected outer circumference of the lens can be considered as the lens part of the glasses.
このような画像処理により、 フレームマスク画像とレンズマスク画像 が自動的に生成でき、 誰でも容易に人物像と合成可能な合成用画像デー 夕を登録できる。  Through such image processing, a frame mask image and a lens mask image can be automatically generated, and anyone can register image data for synthesis that can be easily synthesized with a human image.
また、 メタルフレームやセルフレームのようなフルリムメガネばかり でなく、 ナイロールゃッ一ポイント等のようにリムの一部または前部を 欠くメガネに対しても、 特別な情報を要することなく 自動的に合成用画 像データを生成できる。  Also, not only full-rim glasses such as metal frames and cell frames, but also glasses that lack a part or the front of the rim, such as Nyrol Pit Point, etc., automatically without special information. Image data for synthesis can be generated.
請求項 2 2に記載のメガネ画像登録方法は、 請求項 2 1に記載のメガ ネ画像登録方法であって、 メガネの外周を検出するステツプは撮影され たメガネ画像の背景部からメガネ部に向ってメガネの境界を検出するス テツプを含み、 レンズの外周を検出するステップはメガネの外周を検出 するステップにより検出されたメガネの外周からレンズ部を推定するス テツプと推定されたレンズ部からレンズ周辺部に向ってレンズの境界を 検出するステップとを含むものである。 A method for registering eyeglasses images according to claim 22 is the method for registering eyeglasses according to claim 21, wherein the step of detecting the outer periphery of the glasses is directed from a background portion of the captured glasses image toward the glasses portion. The step of detecting the outer periphery of the lens includes the step of estimating the lens unit from the outer periphery of the glasses detected by the step of detecting the outer periphery of the glasses, and the step of detecting the lens unit from the estimated lens unit. The border of the lens towards the periphery Detecting.
メガネ画像の背景部からメガネ部に向ってメガネの境界を検出するこ とでメガネの外周を容易に検出できる。 また、 検出されたメガネの外周 からメガネ画像のレンズ部を推定し、 レンズ部の周辺付近からレンズ周 辺部に向って境界を検出することで、 レンズに貼られたラベルやレンズ 内の写りこみ等の影響を抑制し、 容易にレンズの外周を検出できる。 請求項 2 3に記載のメガネ画像登録方法は、 請求項 2 2に記載のメガ ネ画像登録方法であって、 メガネの外周を検出するステップはメガネの 境界を検出するステツプにより検出された境界を出発点として近傍のメ ガネの境界を順次検出して追跡するステップを含み、 レンズの外周を検 出するステップはレンズの境界を検出するステツプにより検出された境 界を出発点として近傍のレンズの境界を順次検出して追跡するステツプ を含むものである。  By detecting the boundary of the glasses from the background portion of the glasses image toward the glasses portion, the outer periphery of the glasses can be easily detected. In addition, the lens portion of the glasses image is estimated from the detected outer periphery of the glasses, and the boundary is detected from the vicinity of the lens portion to the periphery of the lens, so that the label attached to the lens and the reflection in the lens are detected. And other factors, and the outer periphery of the lens can be easily detected. The eyeglass image registration method according to claim 23 is the method according to claim 22, wherein the step of detecting the outer periphery of the glasses includes the step of detecting the boundary of the glasses. The method includes a step of sequentially detecting and tracking the boundary of the neighboring glasses as a starting point, and the step of detecting the outer periphery of the lens includes the step of detecting the boundary of the lens as a starting point. It includes steps for sequentially detecting and tracking boundaries.
メガネの境界を検出するステップにより、 検出された境界を出発点と して近傍のメガネの境界を順次検出して追跡するので、 メガネの外周を 効率よく検出でき、 複雑な形状のリムや鼻パッ ド等により入り組んだ外 形を有する場合でもメガネの外周を正しく検出することが可能となる。 また、 レンズの境界を検出するステップにより、 検出された境界を出発 点として近傍のレンズの境界を順次検出して追跡するので、 レンズの外 周を効率よく検出できる。  In the step of detecting the boundary of the glasses, the detected boundary is used as a starting point to sequentially detect and track the boundaries of nearby glasses, so that the outer circumference of the glasses can be detected efficiently, and a rim or nose pad having a complicated shape can be detected. It is possible to correctly detect the outer periphery of the glasses even if the outer shape of the glasses is intricate due to the shape of the glasses. In the step of detecting the boundary of the lens, the boundary of the nearby lens is sequentially detected and tracked starting from the detected boundary, so that the outer periphery of the lens can be detected efficiently.
請求項 2 4に記載のメガネ画像登録方法は、 請求項 2 1ないし請求項 2 3のいずれかに記載のメガネ画像登録方法であって、 メガネの外周を 検出するステップは検出されたメガネの外周の欠損部を補間するステツ プを含み、 レンズの外周を検出するステツプは検出されたレンズの外周 の欠損部を補間するステップを含むものである。  The eyeglass image registration method according to claim 24 is the eyeglass image registration method according to any one of claims 21 to 23, wherein the step of detecting the outer circumference of the eyeglasses includes the step of detecting the outer circumference of the detected eyeglasses. The step of detecting the outer periphery of the lens includes the step of interpolating the defective part of the detected outer periphery of the lens.
これにより、 メガネの外周を検出するステップやレンズの外周を検出 するステツプにおいて境界が明瞭でない等のために外周データに欠損部 を生じた場合でも、 検出された外周データから欠損部の外周データを推 定して補間することが可能となる。 This allows you to detect the outer circumference of the glasses and detect the outer circumference of the lens Even in the case where a missing portion is generated in the outer peripheral data because the boundary is not clear or the like, the outer peripheral data of the defective portion can be estimated and interpolated from the detected outer peripheral data.
請求項 2 5に記載のメガネ画像登録方法は、 請求項 2 1ないし請求項 2 4のいずれかに記載のメガネ画像登録方法であって、 メガネの外周を 検出するステツプは検出されたメガネの外周の不正な突起部を除去する ステップを含み、 レンズの外周を検出するステツプは検出されたレンズ の外周の不正な突起部を除去するステツプを含むものである。  The eyeglass image registration method according to claim 25 is the eyeglass image registration method according to any one of claims 21 to 24, wherein the step of detecting the outer circumference of the eyeglasses includes the outer circumference of the detected eyeglasses. The step of detecting the outer periphery of the lens includes the step of removing the illegal projection of the lens.
これにより、 メガネの外周を検出するステップやレンズの外周を検出 するステツプにおいて影や写りこみ等のために外周データに不正な突起 部を生じた場合でも、 検出された外周データから突起部の外周データを 推定して不正な突起部を除去することが可能となる。  In this way, even if an incorrect projection is generated in the outer circumference data due to shadows or reflections in the step of detecting the outer circumference of the glasses or the step of detecting the outer circumference of the lens, the detected outer circumference data is used to determine the outer circumference of the projection. By estimating the data, it is possible to remove the illegal protrusion.
請求項 2 6に記載のメガネ画像登録方法は、 請求項 2 1ないし請求項 2 5のいずれかに記載のメガネ画像登録方法であって、 マスクを生成す るステップはメガネの機種情報を取得するステップ手段を含み、 メガネ の外周を検出するステツプおよびノまたはレンズの外周を検出するステ ップは取得されたメガネの機種情報を活用してメガネの外周および Zま たはレンズの外周を検出するステップを含むものである。  The eyeglass image registration method according to claim 26 is the eyeglass image registration method according to any one of claims 21 to 25, wherein the step of generating a mask acquires model information of the glasses. Including step means, the step of detecting the outer circumference of the glasses and the step of detecting the outer circumference of the lens detect the outer circumference of the glasses and the outer circumference of Z or the lens using the acquired model information of the glasses. It includes steps.
これにより、 メガネの外周やレンズの外周の検出が難しい機種を含む 場合でも、 取得されたメガネの機種情報を活用することで、 自動的にマ スクを生成することが可能となる。  This makes it possible to automatically generate a mask by using the acquired model information of the glasses, even when the model includes a model in which it is difficult to detect the outer circumference of the glasses or the outer circumference of the lens.
また、 オペレータが当初生成されたマスクを不適切と判断した場合に 、 画面上でメガネの機種選択ポタンを押すことによってマスクが再作成 されるようにしてもよい。  When the operator determines that the initially generated mask is inappropriate, the mask may be recreated by pressing the glasses model selection button on the screen.
これにより、 単一の処理によって目的とするすべての機種のメガネに 対応することが困難な場合であっても、 オペレータが補助的に機種選択 ボタンを押すことで容易にマスクを生成できる。 This makes it possible for the operator to select a model even if it is difficult to handle all types of glasses with a single process. A mask can be easily generated by pressing a button.
請求項 2 7に記載のメガネ画像登録方法は、 請求項 2 0ないし請求項 2 6のいずれかに記載のメガネ画像登録方法であって、 マスクを生成す るステツプは生成されたフレームマスク画像および または生成された レンズマスク画像について左右の画像を比較して補正するステツプを含 むものである。  The eyeglass image registration method according to claim 27 is the eyeglass image registration method according to any one of claims 20 to 26, wherein the step of generating a mask includes generating the frame mask image and / or This step includes a step of comparing the left and right images of the generated lens mask image and correcting them.
これにより、 メガネのフレームまたはレンズの左右いずれかに影や写 りこみ等があってフレームマスク画像またはレンズマスク画像の一部に 不正部分を生じた場合でも、 これを是正することが可能となる。  This makes it possible to correct even if there is a shadow or reflection on the left or right side of the frame or lens of the glasses and an incorrect part is generated in a part of the frame mask image or the lens mask image.
請求項 2 8に記載のメガネ画像登録方法は、 請求項 2 0ないし請求項 2 7のいずれかに記載のメガネ画像登録方法であって、 マスクを生成す るステップはボインティ ングデバイスにより指定されたボイントデ一夕 からマスクを編集するステツプを含むものである。  The eyeglass image registration method according to claim 28 is the eyeglass image registration method according to any one of claims 20 to 27, wherein the step of generating a mask is specified by a pointing device. It includes steps to edit the mask from the last day.
これにより、 自動的にフレームマスク画像やレンズマスク画像の生成 が困難な場合でも、 ポインティングデバイスにより撮影されたメガネの フレーム部分やレンズ部分を指定することで、 手動でフレームマスク画 像やレンズマスク画像を編集したり、 自動生成された画像デ一夕を修正 することが可能となる。  This makes it possible to manually edit the frame mask image and lens mask image by specifying the frame and lens portions of the glasses taken by the pointing device, even if it is difficult to automatically generate the frame mask image and lens mask image. Or correct the automatically generated image data.
請求項 2 9に記載のメガネ画像登録方法は、 請求項 1 9ないし請求項 2 8のいずれかに記載のメガネ画像登録方法であって、 合成用画像を生 成するステツプはあらかじめ登録された人物像と撮影されたメガネ画像 を合成して表示するステップを含むものである。  The eyeglass image registration method according to claim 29 is the eyeglass image registration method according to any one of claims 19 to 28, wherein the step of generating the image for synthesis is a person registered in advance. It includes the step of combining and displaying the image and the captured glasses image.
これにより、 撮影されたメガネ画像をその場で人物像と合成するテス 卜が行えるので、 撮影が適切でなかった場合はその場で撮り直すことが でき、 品質のよい合成用画像データを提供できる。  As a result, it is possible to perform a test of combining the captured glasses image with a human image on the spot, so that if the shooting is not appropriate, it is possible to retake the image on the spot and provide high-quality image data for synthesis. .
請求項 3 0に記載のメガネ画像登録方法は、 請求項 2 9に記載のメガ ネ画像登録方法であって、 表示するステツプは人物像と合成するメガネ 画像のレンズの色と透過率を指定するステツプを有するものである。 The method for registering eyeglasses images according to claim 30 is the method according to claim 29. In the image registration method, the step to be displayed has a step of designating the color and transmittance of the lens of the glasses image to be combined with the human image.
これにより、 撮影されたメガネ画像をその場で人物像と合成する際に 、 レンズの色や透過率を指定できるので、 合成の結果を見て、 商品の登 録内容を変更したり、 撮影のやり直しができ、 より品質のよい合成用画 像データを提供できる。  This allows you to specify the color and transmittance of the lens when combining the captured glasses image with the person image on the spot, so that you can change the registered contents of the product or change It is possible to redo and provide higher quality image data for synthesis.
請求項 3 1 に記載のメガネ画像登録方法は、 請求項 2 9または請求項 3 0に記載のメガネ画像登録方法であって、 表示するステップは人物像 に合成するメガネ画像の位置を調節するステツプを有するものである。 これにより、 撮影されたメガネ画像をその場で人物像と合成する際に The eyeglass image registration method according to claim 31 is the eyeglass image registration method according to claim 29 or claim 30, wherein the displaying step is a step of adjusting the position of the eyeglass image to be combined with the human image. It has. This makes it possible to combine the captured eyeglasses image with a human image on the spot.
、 人物像とメガネの相対位置を変更できるので、 合成する際の最適な位 置を設定することが可能となる。 Since the relative position between the human image and the glasses can be changed, it is possible to set an optimal position for the composition.
請求項 3 2に記載のメガネ画像登録方法は、 請求項 1 9ないし請求項 3 1のいずれかに記載のメガネ画像登録方法であって、 登録手段は撮影 されたメガネのレンズ部に設けられたラベルを読み取るステップを備え たものである。  The eyeglass image registration method according to claim 32 is the eyeglass image registration method according to any one of claims 19 to 31, wherein the registration unit is provided on a lens unit of the captured glasses. The method includes a step of reading a label.
これにより、 撮影されたメガネ画像に写しこまれたラベルを自動的に 読み取って商品登録を行うことができるので、 人為的な登録ミスの発生 を防止して、 より簡便に合成用画像データを提供できる。 また、 読み取 られたラベル情報をもとにメガネの外周検出やレンズの外周検出を行う ことで、 影や写りこみ等のノイズによる誤検出を抑え、 より信頼性の高 いマスク生成が行えるようになる。  As a result, it is possible to automatically read the label imprinted on the captured glasses image and register the product, preventing the occurrence of artificial registration errors and providing image data for composition more easily. it can. In addition, by detecting the outer circumference of the glasses and the outer circumference of the lens based on the read label information, erroneous detection due to noise such as shadows and reflections can be suppressed, and more reliable mask generation can be performed. Become.
請求項 3 3に記載のメガネ画像登録方法は、 請求項 1 9ないし請求項 3 2のいずれかに記載のメガネ画像登録方法であって、 登録手段により 登録された合成用画像データを送信するステツプを備えたものである。  The eyeglass image registration method according to claim 33 is the eyeglass image registration method according to any one of claims 19 to 32, wherein the step of transmitting the image data for synthesis registered by the registration unit is performed. It is provided with.
これにより、 登録されたデータをオンラインでメガネ販売システムに 提供できるので、 メガネの販売をより迅速かつ低コス トで行うことが可 能となる。 As a result, the registered data can be used online in the glasses sales system. Since it can be provided, it will be possible to sell eyeglasses more quickly and at lower cost.
この発明の上述の目的、 その他の目的、 特徴および利点は、 図面を参 照して行う以下の発明の実施の形態の詳細な説明から一層明らかとなろ ラ。 図面の簡単な説明 第 1図は、 本願発明の一実施形態にかかるメガネ画像登録システムの 構成図である。  The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments of the present invention with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of a glasses image registration system according to an embodiment of the present invention.
第 2図は、 本願発明の一実施形態にかかるメガネ画像登録システムの 正面画像撮影装置の図解図である。  FIG. 2 is an illustrative view of a front image capturing device of the glasses image registration system according to one embodiment of the present invention.
第 3図は、 本願発明の一実施形態にかかるメガネ画像登録システムの 正面画像撮影装置のメンテナンス扉を示す図解図である。  FIG. 3 is an illustrative view showing a maintenance door of the front image photographing device of the glasses image registration system according to one embodiment of the present invention.
第 4図は、 本願発明の一実施形態にかかるメガネ画像登録システムの 俯瞰画像撮影装置の図解図である。  FIG. 4 is an illustrative view of a bird's-eye view image capturing apparatus of the glasses image registration system according to one embodiment of the present invention.
第 5図は、 本願発明の一実施形態にかかるメガネ画像登録システムに おけるコンピュータの全体処理フロー図である。  FIG. 5 is an overall processing flowchart of a computer in the glasses image registration system according to the embodiment of the present invention.
第 6図は、 マスク自動処理の一実施例にかかる処理フロー図である。 第 7 ¾は、 メガネ外周検出処理の一実施例にかかる処理フロー図であ る。  FIG. 6 is a processing flowchart according to an embodiment of the mask automatic processing. FIG. 7 is a process flow chart according to an embodiment of the eyeglass periphery detection processing.
第 8図は、 レンズ外周検出処理の一実施例にかかる処理フロー図であ る。  FIG. 8 is a processing flowchart according to an embodiment of the lens outer periphery detection processing.
第 9図は、 合成画像表示処理の一実施例にかかる処理フロー図である 第 1 0図は、 マスク手動編集処理の一実施例にかかる処理フロー図で ある。 FIG. 9 is a processing flow chart according to one embodiment of the composite image display processing. FIG. 10 is a processing flow chart according to one embodiment of the mask manual editing processing. is there.
第 1 1図は、 データ登録処理の一実施例にかかる処理フロー図である 第 1 2図は、 メガネ外周検出処理におけるの開始点の説明図である。 第 1 3図は、 メガネおよびレンズの境界追跡処理における近傍点の説 明図である。  FIG. 11 is a processing flowchart according to an embodiment of the data registration processing. FIG. 12 is an explanatory diagram of a starting point in the glasses outer periphery detection processing. FIG. 13 is an explanatory diagram of nearby points in the boundary tracking processing of glasses and lenses.
第 1 4図は、 メガネおよびレンズの境界追跡処理の追跡過程を示す説 明図である。  FIG. 14 is an explanatory diagram showing the tracking process of the eyeglasses and lens boundary tracking process.
第 1 5図は、 本願発明の一実施形態にかかる正面画像撮影装置の長手 方向の断面図解図である。  FIG. 15 is an illustrative sectional view in the longitudinal direction of the front image capturing apparatus according to one embodiment of the present invention.
第 1 6図は、 本願発明の一実施形態にかかる正面画像撮影装置のカメ ラ側からメガネを見た図解図である。  FIG. 16 is an illustrative view of eyeglasses viewed from the camera side of the front image photographing apparatus according to one embodiment of the present invention.
第 1 7図は、 メガネの輪郭を明瞭にする照明の原理を示す説明図であ る。  FIG. 17 is an explanatory view showing the principle of illumination for making the outline of the glasses clear.
第 1 8図は、 メガネの輪郭を明瞭にする照明の効果を示す説明図であ る。  FIG. 18 is an explanatory view showing the effect of lighting for making the outline of the glasses clear.
第 1 9図は、 本願発明の一実施形態にかかる正面画像撮影装置のメガ ネ収容部側面パネル 2 2および 2 3の内面 (〇面 ' 11面) に施されたグ レー処理の例を示す説明図である。  FIG. 19 shows an example of gray processing performed on the inner surfaces (〇 surface '11 surface) of the side panels 22 and 23 of the magenta accommodating portion of the front image photographing apparatus according to one embodiment of the present invention. FIG.
第 2 0図は、 本願発明の一実施形態にかかる正面画像撮影装置の後面 パネル 2 5の内面 (B面) に施されたグレー処理の例を示す説明図であ る。 ,  FIG. 20 is an explanatory diagram showing an example of gray processing performed on the inner surface (B surface) of the rear panel 25 of the front image photographing device according to one embodiment of the present invention. ,
第 2 1図は、 本願発明の一実施形態にかかる正面画像撮影装置のカメ ラ収容部前面パネル 2 0の内面 (八面) に施されたグラデーション処理 の例を示す説明図である。  FIG. 21 is an explanatory diagram showing an example of gradation processing performed on the inner surface (eight surfaces) of the front panel 20 of the camera housing section of the front image photographing apparatus according to one embodiment of the present invention.
第 2 2図は、 本願発明の一実施形態にかかる正面画像撮影装置の開閉 扉上面パネル 2 8の内面 (C面) に施されたブラック処理の例を示す説 明図である。 FIG. 22 shows opening and closing of the front image capturing apparatus according to the embodiment of the present invention. FIG. 9 is an explanatory view showing an example of black processing applied to the inner surface (C surface) of the door upper panel 28.
第 2 3図は、 本願発明の一実施形態にかかる正面画像撮影装置の下面 パネル 1 2の後部の内面 (B〜 F面) に施されたグレー処理の例を示す 説明図である。  FIG. 23 is an explanatory diagram showing an example of gray processing performed on the inner surface (B-F surface) of the rear part of the lower panel 12 of the front image photographing apparatus according to one embodiment of the present invention.
第 2 4図は、 本願発明の一実施形態にかかる正面画像撮影装置によつ て、 メタルフレームメガネを撮影した画像の例である。  FIG. 24 is an example of an image of metal frame glasses taken by the front image photographing apparatus according to one embodiment of the present invention.
第 2 5図は、 本願発明の一実施形態にかかる正面画像撮影装置によつ て、 セルフレームメガネを撮影した画像の例である。  FIG. 25 is an example of an image obtained by photographing cell-frame glasses using the front image photographing apparatus according to the embodiment of the present invention.
第 2 6図は、 本願発明の一実施形態にかかる正面画像撮影装置によつ て、 ナイロールメガネを撮影した画像の例である。  FIG. 26 is an example of an image obtained by photographing Nyrol glasses using the front image photographing apparatus according to one embodiment of the present invention.
第 2 7図は、 本願発明の一実施形態にかかる正面画像撮影装置によつ て、 ッ一ポイントメガネを撮影した画像の例である。  FIG. 27 is an example of an image of one-point glasses taken by the front image photographing apparatus according to one embodiment of the present invention.
第 2 8図は、 メガネ画像撮影における表示画面例(撮影開始前)である 。  FIG. 28 shows an example of a display screen (before the start of photographing) in photographing glasses images.
第 2 9図は、 メガネ画像撮影における表示画面例(撮影終了後)である 第 3 0図は、 マスク処理における表示画面例(処理開始前)である。 第 3 1図は、 マスク処理における表示画面例(処理終了後)である。 第 3 2図は、 マスク手動編集における表示画面例である。  FIG. 29 is an example of a display screen in the imaging of the glasses image (after the end of the imaging). FIG. 30 is an example of a display screen in the mask processing (before the processing is started). FIG. 31 shows an example of a display screen in the mask processing (after the processing is completed). FIG. 32 is an example of a display screen in manual mask editing.
第 3 3図は、 データ登録における表示画面例 (登録開始前) である。 第 3 4図は、 デ一夕登録における表示画面例 (登録終了後) である。 第 3 5図は、 マスク処理における表示画面の変形例である。 発明を実施するための最良の形態 ' - 第 1図は本願発明の一実施形態にかかるメガネ画像登録システムをメ ガネ販売システムとネッ トワーク接続したシステム構成図を示す。 Fig. 33 shows an example of a display screen for data registration (before registration starts). Fig. 34 shows an example of a display screen during registration (after registration is completed). FIG. 35 shows a modification of the display screen in the mask processing. BEST MODE FOR CARRYING OUT THE INVENTION-FIG. 1 shows a glasses image registration system according to an embodiment of the present invention. A system configuration diagram is shown that is connected to a gane sales system via a network.
図において、 1はメガネ画像登録システム、 3 0 0がメガネ販売シス テムである。 メガネ画像登録システム 1 は、 メガネの正面画像を撮影す る正面画像撮影装置 1 0 と、 メガネの俯瞰画像を撮影する俯瞰画像撮影 装置 1 0 0 と、 撮影されたメガネ画像を画像処理して合成用画像データ をするコンピュータ 2 0 0 とから構成される。  In the figure, 1 is a glasses image registration system, and 300 is a glasses sales system. The glasses image registration system 1 is composed of a front image photographing device 100 for photographing a front image of glasses, a bird's-eye image photographing device 100 for photographing a bird's-eye image of glasses, and image processing of photographed glasses images. And a computer 200 for processing image data.
まず、 最初に画像処理の対象となるメガネの正面画像を撮影する正面 画像撮影装置 1 0の一実施形態について説明する。  First, an embodiment of a front image capturing apparatus 10 for capturing a front image of glasses to be subjected to image processing will be described.
正面画像撮影装置 1 0は、 第 2図に示すように、 メガネ画像を撮影す る際の外光を遮断するための撮影ボックス 1 1 と、 撮影対象のメガネ 2 を固定するためのメガネ固定部材たる トルソー 3 0と、 トルソー 3 0に 固定された撮影対象のメガネ 2を照明する照明手段たる照明ランプ 4 0 と、 トルソー 3 0に固定された撮影対象のメガネ 2に正対し、 一定の距 離からメガネを撮影してディジタル画像データを得る撮像手段たるディ ジ夕ルカメラ 5 0とから構成される。  As shown in FIG. 2, the front image capturing device 10 includes a capturing box 11 for blocking external light when capturing a glasses image, and a glasses fixing member for fixing the glasses 2 to be captured. Barrel Torso 30, fixed lamps 40, which are illumination means for illuminating shooting target glasses 2 fixed to torso 30, and fixed distances, facing shooting target glasses 2 fixed to torso 30 And a digital camera 50 as an image pickup means for obtaining digital image data by photographing glasses from the camera.
撮影ボックス 1 1は、 第 1 5図、 第 1 6図にも示すように、 全体のベ —スプレートとなる下面パネル 1 2 と、 下面パネル 1 2の前部たる一端 に設けられ、 カメラ 5 0を収容するカメラ収容部 1 4と、 下面パネル 1 2の後部たる他端に設けられ、 カメラ収容部 1 4側に開口を有し、 トル ソ一 3 0を囲むように設置されるメガネ収容部 1 6 と、 下面パネル 1 2 に設けられたガイ ドレール 1 3に沿ってスライ ドする開閉扉 1 8とから 構成される。  As shown in FIGS. 15 and 16, the photographing box 11 is provided on the lower panel 12 serving as an entire base plate, and at one end of the lower panel 12 at the front end thereof. A camera housing part 14 for housing the camera body 14, and an eyeglass housing which is provided at the other end of the lower panel 12 at the rear end, has an opening on the camera housing part 14 side, and is installed so as to surround the torso 30. It consists of a part 16 and an opening / closing door 18 that slides along a guide rail 13 provided on the lower panel 12.
カメラ収容部 1 4は、 トルソー 3 0側に前面パネル 2 0が設けられ、 トルソー 3 0に固定されたメガネ 2 と正対する位置にカメラ 5 0のレン ズ穴 2 1が開口されている。 また、 カメラ収容部 1 4の背面 (第 1 5図 の K面) には、 カメラ 5 0および照明ランプ 4 0に電源を供給するため の電源コネクタ 5 2と、 カメラ 5 0および照明ランプ 4 0の電源の O N / O F Fをする電源スィッチ 5 4と、 カメラ 5 0をコンピュータ 2 0 0 と接続するための U S Bコネクタ 5 6とを備える。 The camera accommodating portion 14 has a front panel 20 on the torso 30 side, and has a lens hole 21 of the camera 50 at a position facing the glasses 2 fixed to the torso 30. The rear of the camera housing 14 (K side in Fig. 15) is used to supply power to the camera 50 and the illumination lamp 40. A power connector 52 for turning on / off the power of the camera 50 and the illumination lamp 40; and a USB connector 56 for connecting the camera 50 to the computer 200.
メガネ収容部 1 6は、 トルソー 3 0の側面を囲う左右一対の側面パネ ル 2 2 、 2 3と、 トルソー 3 0の上方を囲う上面パネル 2 4と、 トルソ - 3 0の後方を囲う後面パネル 2 5 とを備える。  A pair of left and right side panels 22 and 23 surrounding the side of the torso 30, an upper panel 24 surrounding the upper side of the torso 30, and a rear panel surrounding the back of the torso 30 are provided. 2 5.
開閉扉 1 8は、 ガイ ドレール 1 3に沿ってスライ ドし、 側面を囲う左 右一対の側面パネル 2 6 , 2 7 と、 上方を囲う上面パネル 2 8とを備え る。 第 2図は、 開閉扉 1 8を開放した状態を示し、 この状態で撮影する メガネ 2をトルソー 3 0にセッ 卜し、 開閉扉 1 8をカメラ収容部 1 4に 密接するまで移動して閉じることによって、 外光が完全に遮断され、 力 メラ 5 0によるメガネ 2の撮影が可能となる。  The opening / closing door 18 slides along the guide rail 13 and includes a pair of left and right side panels 26 and 27 surrounding the side surfaces, and an upper surface panel 28 surrounding the upper side. FIG. 2 shows a state in which the opening and closing door 18 is opened. In this state, the glasses 2 are set on the torso 30 and the opening and closing door 18 is moved until it comes into close contact with the camera accommodating section 14 and closed. As a result, the external light is completely blocked, and it is possible to photograph the glasses 2 with the force camera 50.
尚、 ここでは、 便宜上撮影ボックス 1 1の前面パネル 2 0側を前側、 後面パネル 2 5側を後側と呼び、 前面パネル 2 0を撮影ボックス 1 1の 前部、 後面パネル 2 5を撮影ボックス 1 1の後部、 メガネ収容部 1 6の 側面パネル 2 2および 2 3を撮影ボックス 1 1の側部、 下面パネル 1 2 のメガネ収容部 1 6側を撮影ボックス 1 1の下部後側、 開閉扉 1 8の上 面パネル 2 8を撮影ボックス 1 1の上部前側と呼ぶ。  For convenience, the front panel 20 side of the shooting box 11 is called the front side, the rear panel 25 side is called the rear side, and the front panel 20 is the front of the shooting box 11 and the rear panel 25 is the shooting box. 1 1 Rear, side panel 2 2 and 2 3 of glasses housing 1 6 shooting box 1 1 side, bottom panel 1 2 glasses housing 16 side of shooting box 1 1 The upper panel 28 of 18 is referred to as the upper front side of the shooting box 11.
撮影ボックス 1 1 を構成する下面パネル 1 2と、 カメラ収容部 1 4の 前面パネル 2 0 と、 メガネ収容部 1 6の側面パネル 2 2および 2 3 と、 メガネ収容部 1 6の上面パネル 2 4と、 後面パネル 2 5と、 開閉扉 1 8 の側面パネル 2 6および 2 7 と、 開閉扉 1 8の上面パネル 2 8 との内部 は、 ホワイ トを基調とし、 後述の照明ランプの光を壁面で反射すること によって、 メガネの色調を損なうことなく、 多方向から照明されるよう 〖こした。  Lower panel 1 2 that constitutes shooting box 1 1, front panel 20 of camera housing 14, side panels 22 and 23 of glasses housing 16, and upper panel 2 4 of glasses housing 16 The interior of the rear panel 25, the side panels 26 and 27 of the door 18 and the top panel 28 of the door 18 is based on white, and the light of the lighting lamps described later By reflecting light from the camera, it was possible to illuminate from multiple directions without affecting the color tone of the glasses.
このため、 本実施形態ではこれらのパネルに白色の化粧パネルを用い て撮影ボックス 1 1 を形成するようにしたが、 内面を白色塗装するよう にしてもよいことは言うまでもない。 For this reason, in this embodiment, a white decorative panel is used for these panels. Although the photographing box 11 was formed as a result, it goes without saying that the inner surface may be painted white.
後部上面パネル 2 4は、 第 3図に示すように、 照明ランプ 4 0のメン テナンスができるように、 開閉扉 1 8を閉じた状態で上方に開閉できる 開閉機構(図示省略)を備える。  As shown in FIG. 3, the rear upper panel 24 is provided with an opening / closing mechanism (not shown) that can be opened and closed upward with the door 18 closed so that the illumination lamp 40 can be maintained.
尚、 開閉扉 1 8は、 ここではスライ ド式としたが、 メガネの出し入れ をする蓋を設けるようにしてもよいことは言うまでもない。  Here, the opening / closing door 18 is of a sliding type here, but it goes without saying that a lid for taking in and out the glasses may be provided.
トルソー 3 0は、 撮影対象のメガネをセッ トする円柱体であり、 メガ ネ収容部 1 6の下面パネル 1 2に垂直に固定される。 この実施形態にお いては、 発泡スチロール等で形成した円柱状の芯に、 白色のゴムを巻い た円柱体を用いた。 円柱体の直径は、 撮影対象のメガネ 2のなかでテン プルの最も広い間隔のものに対してずり落ちない程度に設定している。  The torso 30 is a cylindrical body on which the glasses to be photographed are set, and is vertically fixed to the lower panel 12 of the magnet housing 16. In this embodiment, a cylindrical body formed by winding white rubber on a cylindrical core made of styrene foam or the like was used. The diameter of the cylinder is set so that it does not slip down with the widest interval of the temples in the glasses 2 to be photographed.
トルソー 3 0の前方、 すなわちカメラ 5 0を収容するカメラ収容部 1 4側のトルソー 3 0の近傍には、 メガネ 2の左右に傾きが生じないよう にするため、 メガネのフロント部分を置く透明アクリル製のメガネ台座 3 2が設けられている。 メガネ台座 3 2は、 幅をほぼメガネ 2の横幅に 、 厚さをメガネ 2のフロント部分を置ける最小限とすることで、 メガネ 2の高さおよびカメラ 5 0との距離が一定範囲に固定されるとともに、 セッ トする際の左右の傾き (軸のずれ) を防止できるように構成されて いる。 また、 メガネ台座 3 2は、 透明のアクリル樹脂板で形成されてい るので、 下面パネル 1 2からの反射光がメガネ 2のレンズの下部にも供 給され、 ナイロールゃッ一ボイント等のメガネにおいてレンズの輪郭を より明瞭に捉えることができる。  In front of the torso 30, that is, in the vicinity of the torso 30 on the side of the camera accommodating part 14 for accommodating the camera 50, in order to prevent the left and right sides of the glasses 2 from being tilted, a transparent acrylic on which the front parts of the glasses 2 are placed A glasses base 32 is provided. The glasses pedestal 32 has a width that is approximately the width of the glasses 2 and a minimum thickness that allows the front part of the glasses 2 to be placed, so that the height of the glasses 2 and the distance to the camera 50 are fixed within a certain range. In addition, it is configured to prevent left and right inclination (axis deviation) when setting. In addition, since the eyeglass pedestal 32 is formed of a transparent acrylic resin plate, the reflected light from the lower panel 12 is also supplied to the lower part of the lens of the eyeglass 2 so that the eyeglass pedestal 32 can be used for eyeglasses such as a nyrole bottle. The outline of the lens can be captured more clearly.
本実施形態では、 メガネ台座 3 2は下面パネル 1 2に固定され、 メガ ネ台座 3 2の上面に載置されたメガネ 2のレンズが力メラ 5 0のレンズ と正対する高さとなるように形成されている。 また、 メガネ台座 3 2は 、 メガネ 2の影がトルソー 3 0に写るのを抑えるため、 トルソーから少 し離した位置に固定している。 これにより、 メガネ 2のレンズ部分をよ り明瞭に捉えたメガネ画像が得られている。 In the present embodiment, the eyeglass pedestal 32 is fixed to the lower panel 12, and formed so that the lens of the eyeglasses 2 placed on the upper surface of the glass pedestal 32 has a height directly opposite to the lens of the force lens 50. Have been. Also, the glasses base 3 2 In order to prevent the shadow of glasses 2 from appearing on the torso 30, it is fixed at a position slightly away from the torso. As a result, a glasses image in which the lens portion of the glasses 2 is more clearly captured is obtained.
尚、 メガネ台座 3 2のカメラ 5 0側の表面にはスケールとカラーパッ チを設けられ、 これをカメラ 5 0に写しこむことで、 撮影サイズおよび 色調の確認ができるようにしている。  In addition, a scale and a color patch are provided on the surface of the glasses base 32 on the camera 50 side, and the photographing size and the color tone can be checked by transferring the scale and the color patch to the camera 50.
照明ランプ 4 0は、 メガネ収容部 1 6の上面パネル 2 4の内面に固定 され、 トルソー 3 0にセッ 卜されたメガネ 2を上方から直接照明すると ともに、 撮影ボックス 1 1の内面での反射光によって全方位から間接照 明する。  The illumination lamp 40 is fixed to the inner surface of the upper panel 24 of the glasses housing 16 to directly illuminate the glasses 2 set in the torso 30 from above, and the reflected light from the inner surface of the shooting box 11 Indirect illumination from all directions.
照明ランプ 4 0は、 円形の蛍光灯を使用した。 これは、 蛍光灯による 照明はメガネ 2の色調を損なうことが少なく、 入手も容易で、 メンテナ ンス性に優れるからである。 また、 円形の蛍光灯を使用したのは、 発光 面積が広く、 広い範囲から照明されるので、 影ができにく く、 より外乱 の少ないメガネ画像が得られるからである。 尚、 上面パネル 2 4は、 前 述のように開閉機構を備えるので、 照明ランプ 4 0を簡単に交換するこ とができる。  As the illumination lamp 40, a circular fluorescent lamp was used. This is because illumination with a fluorescent lamp does not easily impair the color tone of the glasses 2, is easily available, and has excellent maintainability. In addition, the reason for using a circular fluorescent lamp is that since the light emitting area is large and the light is illuminated from a wide range, shadows are hardly formed and glasses images with less disturbance can be obtained. Since the upper panel 24 has the opening / closing mechanism as described above, the illumination lamp 40 can be easily replaced.
照明ランプ 4 0は、 上面パネル 2 4の内面のメガネ台座 3 2より後方 (ディジタルカメラ 5 0から遠い方) に設けられている。 これは、 メガ ネ 2をカメラ 5 0に対して後方から照明することにより、 メガネのレン ズの輪郭をより明瞭に捉えたメガネ画像を得ることを目的としたもので ある。  The illumination lamp 40 is provided behind the glasses pedestal 32 on the inner surface of the upper panel 24 (farther from the digital camera 50). This aims at obtaining a spectacle image in which the outline of the lens of the spectacle is more clearly captured by illuminating the camera 2 from behind the camera 50.
第 1 7図はその原理を説明したもので、 メガネ 2の上部は光源からの 直接光が反射してカメラ 5 0に捉えられ、 メガネ 2の下部は照明ランプ 4 0からの光が下面パネル 1 2で反射して、 透明のメガネ台座 3 2を透 過して供給され、 その反射光がカメラ 5 0に捉えられる。 これにより、 第 1 8図のように、 ナイロールやツーポイント等のメガネにおいてもレ ンズの輪郭をより明瞭に捉えることができるようになった。 Fig. 17 explains the principle. The upper part of the glasses 2 reflects the direct light from the light source and is captured by the camera 50. The lower part of the glasses 2 receives the light from the illumination lamp 40 and the lower panel 1 The light is reflected by 2 and supplied through the transparent glasses base 32, and the reflected light is captured by the camera 50. This allows As shown in Fig. 18, it has become possible to more clearly capture the outline of the lens even with glasses such as nyrol and two-point glasses.
本実施形態では、 メガネ収容部 1 6の側面パネル 2 2および 2 3の内 面 (第 1 6図の G面 · Η面) は、 第 1 9図に示すように 7 0 %のグレー 処理が施されている。 また、 後面パネル 2 5の内面 (第 1 5図の Β面) は、 第 2 0図に示すように 4 0 %のグレー処理が施されている。 これは 、 カメラ 5 0を取付けている前面パネル 2 0は、 メガネ 2の正面画像を できる限りフラッ 卜に撮影するためにメガネ 2から一定距離をとる必要 があるが、 メガネ 2から側面および後面までの距離は装置の小型化のた め可能な限り小さくしており、 メガネに供給される撮影ボックス 1 1の 内面からの反射光が前部に比して側部と後部が明るくなりすぎるという 現象を生ずるからである。 そこで、 側面パネル 2 2および 2 3の内面は 7 0 %のグレー処理を施し、 後面パネル 2 5の内面は 4 0 %のグレー処 理を施し、 全方位からの照明条件の均一化を図った。 これにより、 メガ ネをよりフラットに撮影でき、 かつ外乱の少ないメガネ画像を得ること ができた。  In the present embodiment, the inner surfaces of the side panels 22 and 23 of the glasses housing portion 16 (the G surface and the Η surface in FIG. 16) are subjected to 70% gray processing as shown in FIG. It has been subjected. The inner surface of the rear panel 25 (the upper surface in FIG. 15) is subjected to a 40% gray treatment as shown in FIG. This is because the front panel 20 on which the camera 50 is mounted needs to be at a certain distance from the glasses 2 in order to capture the front image of the glasses 2 as flat as possible, but from the glasses 2 to the side and rear. The distance is set as small as possible due to the miniaturization of the equipment, and the reflected light from the inner surface of the shooting box 11 supplied to the glasses becomes too bright on the side and rear compared to the front. This is because Therefore, the inner surfaces of the side panels 22 and 23 were treated with 70% gray, and the inner surface of the rear panel 25 was treated with 40% gray, to achieve uniform lighting conditions from all directions. . As a result, it was possible to take a flat image of the mound and obtain glasses images with less disturbance.
本実施形態では、 グレー処理はュポと呼ばれるプラスチックの質感を 持つ合成紙に黒を所定濃度で印刷し、 これをパネルの内面に貼り付ける ことで行った。  In the present embodiment, the gray processing is performed by printing black at a predetermined density on synthetic paper having a plastic texture called "upo" and pasting it on the inner surface of the panel.
尚、 グレー処理はパネルの内面を所定の灰色に塗装するようにしても よいことは言うまでもない。  It goes without saying that the gray treatment may be such that the inner surface of the panel is painted in a predetermined gray.
本実施形態では、 第 1 5図に示すように、 後面パネル 2 5の内面 (Β 面) は下面パネル 1 2 ( F面) に向って丸みが設けられている。 これは 、 後面パネル 2 5と下面パネル 1 2の境界線が力メラに捕らえられて、 外乱となるのを抑制するためである。  In the present embodiment, as shown in FIG. 15, the inner surface (upper surface) of the rear panel 25 is rounded toward the lower panel 12 (F surface). This is to prevent the boundary between the rear panel 25 and the lower panel 12 from being caught by the force melody and becoming a disturbance.
本実施形態では、 後面パネル 2 5の内面に丸みを設ける処理は、 前述 の 4 0 %グレー処理したュボシ一トを後面パネル 2 5から下面パネル 1 2に向って丸みをつけて貼り付けることで行った。 In the present embodiment, the process of providing roundness on the inner surface of the rear panel 25 is as described above. The 40% gray-treated rubosite was rounded and attached from the rear panel 25 to the lower panel 12.
尚、 後面パネル 2 5の内面に丸みを設ける処理は、 例えば所定の曲率 に加工した部材を用いたり、 撮影ボックス 1 1 自体を丸みを有するパネ ルで形成するようにしてもよいことは言うまでもない。  It is needless to say that the rounding of the inner surface of the rear panel 25 may be performed, for example, by using a member processed to a predetermined curvature, or by forming the imaging box 11 itself with a rounded panel. .
前面パネル 2 0は、 第 1 5図に示すようにカメラ 5 0のレンズ穴 2 1 が設けられ、 カメラ収容部 1 4内にカメラ 5 0が取付けられている。 力 メラ 5 0のレンズ穴 2 1は、 カメラの画像中心が、 メガネ台座 3 2にメ ガネを置いたときのメガネの高さ中心とほぼ一致するように設けられて いる。 従って、 メガネ 2のレンズはカメラ 5 0のレンズ穴 2 1 に正対し ており、 メガネ 2のレンズにはカメラ 5 0のレンズが写ってしまうとい う問題を生ずる。  As shown in FIG. 15, the front panel 20 is provided with a lens hole 21 of the camera 50, and the camera 50 is mounted in the camera accommodating portion 14. The lens hole 21 of the force lens 50 is provided so that the center of the image of the camera substantially coincides with the center of the height of the glasses when the glasses are placed on the glasses base 32. Therefore, the lens of the glasses 2 is directly opposed to the lens hole 21 of the camera 50, and there is a problem that the lens of the camera 50 is reflected on the lens of the glasses 2.
このため、 本実施形態では前面パネル 2 0の内面 (第 1 5図の A面) は、 第 2 1図に示すように、 全体に 4 0 %のグレー処理が施され、 カメ ラのレンズ穴 2 1の周辺部には、 中心を暗く、 周辺に向って徐々に明る くするグラデーション処理が施されている。 これにより、 前面パネルか らの反射光を抑え、 メガネ 2のレンズにカメラ 5 0のレンズ部が写りこ むことを抑制するとともに、 グラデーション処理によってメガネ 2のレ ンズ面に濃淡を与え、 メガネ 2のレンズが正面から見て完全に透き通つ て見えなくなることを防止した。  For this reason, in the present embodiment, the inner surface of the front panel 20 (the A surface in FIG. 15) is subjected to 40% gray processing as a whole as shown in FIG. The periphery of 21 is subjected to a gradation process that darkens the center and gradually brightens toward the periphery. As a result, the reflected light from the front panel is suppressed, and the lens portion of the camera 50 is prevented from being reflected on the lens of the glasses 2, and a gradation process is applied to the lens surface of the glasses 2 to give a shade to the glasses 2. This prevents the lens from becoming completely transparent when viewed from the front.
本実施形態では、 グラデーション処理はグレー処理と同様に、 ュボと 呼ばれる合成紙に黒を所定の濃度変化をつけて印刷し、 これをパネルの 内面に貼り付けることで行った。 ここでは、 レンズ中心を 1 0 0 %、 周 辺を 4 0 %とするグラデーショ ン処理したュボシ一卜のレンズ部分を切 り取って使用した。 グラデーションのつけ方は、 レンズ穴 2 1の周辺部 においてカメラ 5 0 0のレンズの色とほぼ同等となるように設定してい る。 In the present embodiment, the gradation process is performed by printing black with a predetermined density change on synthetic paper called “rubo” and pasting it on the inner surface of the panel, similarly to the gray process. Here, the lens portion of the gradation-processed lens whose center is 100% and its periphery is 40% was cut out and used. The gradation is set so that the color around the lens hole 21 is almost the same as the color of the camera 500 lens. You.
尚、 グラデーション処理も、 パネルの内面を所定の濃度変化をつけて 灰色に塗装するようにしてもよいことは言うまでもない。  It is needless to say that the gradation process may be such that the inner surface of the panel is painted gray with a predetermined density change.
本実施形態では、 開閉扉上面パネル 2 8の内面 (第 1 5図の C面) は 、 第 2 2図に示すように 1 0 0 %のグレー処理 (ブラック処理) が施こ されている。 これは、 前面パネル 2 0と下面パネル 1 2 との境界線がメ ガネ 2のレンズに反射してカメラ 5 0に写ってしまうのを防止すること を目的としたもので、 開閉扉上面パネル 2 8を黒くすることで、 境界部 分への照明が抑制され、 メガネ 2のレンズにほとんど写らなくすること ができた。  In the present embodiment, the inner surface (the C surface in FIG. 15) of the door upper panel 28 is subjected to 100% gray processing (black processing) as shown in FIG. This is intended to prevent the boundary line between the front panel 20 and the lower panel 12 from being reflected by the lens of the gun 2 and being reflected on the camera 50. By making 8 black, the illumination of the border was suppressed, and almost no image was captured by the glasses 2 lens.
また、 本実施形態では下面パネル 1 2のメガネ収容部 1 6の内面 (第 1 5図の 面) は、 第 2 3図に示すように後面パネル 2 5側を暗く、 ト ルソー 3 0の設置位置側に向って明るくするグラデ一ション処理が施さ れている。 これは、 トルソー 3 0は下面パネル 1 2に固定されているた め、 下面パネル 1 2からの反射光によってトルソー 3 0の底部が明るく 、 上部が暗くなるという天地の明るさのアンバランスを生ずるからであ る。 このため、 下面パネル 1 2のメガネ収容部 1 6の内面に、 後面パネ ル 2 5側を 7 0 %グレー、 トルソー 3 0の設置位置側を 0 % (白) とし たグラデーション処理を施すことで、 トルソー 3 0の天地の明るさが一 様となり、 外乱の少ないメガネ画像が得られるようになった。  In this embodiment, the inner surface of the eyeglass accommodating portion 16 of the lower panel 12 (the surface in FIG. 15) is dark on the rear panel 25 side as shown in FIG. A gradation process is applied to increase the brightness toward the position. This is because the torso 30 is fixed to the lower panel 12, and the reflected light from the lower panel 12 causes an imbalance in the brightness of the top and bottom that the bottom of the torso 30 is bright and the top is dark. Because. For this reason, gradation processing is performed on the inner surface of the eyeglass accommodating section 16 of the lower panel 12 with 70% gray on the rear panel 25 side and 0% (white) on the installation position side of the torso 30. The brightness of the top and bottom of the torso 30 became uniform, and glasses images with less disturbance could be obtained.
尚、 前述のように、 後面パネル 2 5には 4 0 %グレー処理したュポシ 一トを下面パネル 1 2に向って丸みをつけて貼り付けているが、 下面パ ネル 1 2の貼り合わせ面においてほぼ 4 0 %グレーとなるように設定し ている。  As described above, the rear panel 25 is rounded with a 40% gray-processed adhesive toward the lower panel 12, and the lower panel 12 is bonded to the rear panel 25 with a rounded surface. It is set to be almost 40% gray.
カメラ 5 0は、 3 0 0万画素クラスのディジタルカメラに焦点距離 5 O m mのレンズを装着したものを使用した。 また、 カメラ 5 0は U S B インタフェースによりコンピュータ 2 0 0と接続されており、 メガネ 2 をトルソー 3 0にセッ トし、 開閉扉 1 8を閉じて、 コンピュータ 2 0 0 からの遠隔操作でメガネの正面画像を撮影する。 As the camera 50, a 300,000-pixel class digital camera equipped with a lens having a focal length of 5 O mm was used. Also, camera 50 is USB It is connected to the computer 200 via the interface, sets the glasses 2 on the torso 30, closes the door 18, and takes a front image of the glasses by remote control from the computer 200.
第 2 4図から第 2 7図に、 正面画像撮影装置 1 0で実際に撮影した画 像の例を示す。 第 2 4図はメタルフレームメガネ、 第 2 5図はセルフレ ームメガネ、 第 2 6図はナイロールメガネ、 第 2 7図はツーポイントメ ガネであるが、 いずれも背景は一様で、 フレームの輪郭が明瞭に捉えら れ、 ナイロールやツーポイン卜のメガネでもレンズの輪郭が画像処理可 能なレベルで捉えられるようになった。  FIGS. 24 to 27 show examples of images actually photographed by the front image photographing apparatus 10. Fig. 24 shows metal frame glasses, Fig. 25 shows self-frame glasses, Fig. 26 shows Nyrol glasses, and Fig. 27 shows two-point glasses, all of which have a uniform background and frame outline. The images are clearly captured, and the outline of the lens can be captured at a level that allows image processing even with Nyrol and two-point glasses.
一方、 俯瞰画像撮影装置 1 0 0は、 メガネ販売システム 3 0 0におい てメガネの外観を需要者に提示するためにメガネの俯瞰画像を撮影する もので、 第 4図に示すように、 メガネ画像を撮影する際の外光を遮断す るための撮影ボックス 1 1 1 と、 撮影ボックス 1 1 1内に設置した撮影 対象のメガネ 2を照明する照明手段たる照明ランプ 1 4 0と、 撮影対象 のメガネ 2を一定の距離から撮影してディジタル画像データを得る撮像 手段たるディジタル式のカメラ 1 5 0とから構成される。  On the other hand, the bird's-eye view image capturing device 100 captures a bird's-eye view image of the glasses in order to present the appearance of the glasses to the customer in the glasses sales system 300, and as shown in FIG. A shooting box 1 1 1 to block external light when shooting an image, an eye lamp 2 140 serving as a lighting means for illuminating the shooting target glasses 2 installed in the shooting box 1 1 1, and a shooting target It comprises a digital camera 150 as an imaging means for obtaining digital image data by photographing the glasses 2 from a certain distance.
撮影ボックス 1 1 1は、 前述の正面画像撮影装置 1 0の撮影ボックス 1 1 と同様に、 全体のベ一スプレートとなる下面パネル 1 1 2 と、 下面 パネル 1 1 2の前部たる一端に設けられ、 カメラ 1 5 0を収容するカメ ラ収容部 1 1 4と、 下面パネル 1 1 2の後部たる他端に設けられ、 カメ ラ収容部 1 1 4方向に開口を有し、 下面パネル 1 1 2上に設置されるメ ガネを収容するメガネ収容部 1 1 6 と、 下面パネル 1 1 2に設けられた ガイ ドレール 1 1 3に沿ってスライ ドする開閉扉 1 1 8 とから構成され る。  As in the case of the photographing box 11 of the front image photographing apparatus 10 described above, the photographing box 1 1 1 is attached to the lower panel 1 1 2 serving as the entire base plate and one end of the lower panel 1 1 2 as the front part. And a camera housing section 114 for housing the camera 150, and a rear end provided at the other rear end of the lower panel 112, which has an opening in the direction of the camera housing section 114. 1 2 Glasses storage section 1 16 for storing glasses installed on top of 1 2 and opening and closing door 1 1 8 sliding along guide rail 1 1 3 provided on bottom panel 1 1 2 .
また、 撮影ボックス 1 1 1 は、 前述の正面画像撮影装置 1 0の撮影ポ ックス 1 1 と同様に、 内面が白色系統の色を有するパネルで形成し、 照 明ランプ 1 4 0に円形の蛍光灯を使用することで、 白色系統の照明が多 方向からメガネに供給されるので、 影や反射の少ない良好なメガネの外 観画像を撮影することができる。 Further, the photographing box 111 is formed of a panel having a white color on the inner surface in the same manner as the photographing box 11 of the front image photographing apparatus 10 described above, and By using a circular fluorescent lamp as the bright lamp 140, white light is supplied to the glasses from multiple directions, so that a good external image of the glasses with less shadow and reflection can be taken.
尚、 俯瞰画像撮影装置 1 0 0においても撮影ボックス 1 1 1の内面に 、 影の状況や、 明るさのムラ、 メガネのレンズの反射等に応じて、 前述 の正面画像撮影装置 1 0で実施したと同様のグレー処理ゃグラデーショ ン処理を施すようにしてもよいことは言うまでもない。  Note that the overhead image photographing device 100 is also implemented by the above-described front image photographing device 100 according to the shadow condition, uneven brightness, reflection of the lens of the glasses, etc. on the inner surface of the photographing box 111. It goes without saying that the same gray processing / gradation processing as described above may be performed.
撮影ボックス 1 1 1 のカメラ収容部 1 1 4や開閉扉 1 8は、 正面画像 撮影装置 1 0と同等の構成のため、 説明を省略する。  The camera accommodating section 1 14 and the opening / closing door 18 of the photographing box 1 1 1 are the same as those of the front image photographing apparatus 10, and therefore description thereof is omitted.
カメラ 1 5 0は、 3 0 0万画素クラスのディジタルカメラに焦点距離 2 8— 1 0 5 m mのズームレンズを装着したものを使用した。 また、 力 メラ 1 5 0は U S Bインタフェースによりコンピュータ 2 0 0と接続さ れており、 メガネ 2をメガネ収納部 1 1 6にセッ トし、 開閉扉 1 1 8を 閉じて、 コンピュータ 2 0 0からの遠隔操作でメガネの俯瞰画像を撮影 する。  As the camera 150, a digital camera of 300,000 pixel class equipped with a zoom lens having a focal length of 28-105 mm was used. The camera 150 is connected to the computer 200 via a USB interface.Then, set the glasses 2 in the glasses storage section 116, close the door 118, and start from the computer 200. Take a bird's-eye view of the glasses with the remote control of.
コンピュータ 2 0 0は、 正面画像撮影装置 1 0のカメラ 5 0および俯 瞰画像撮影装置 1 0 0のカメラ 1 5 0と U S Bィン夕一フェースで接続 され、 カメラ 5 0とカメラ 1 5 0を遠隔操作して合成用メガネ画像と外 観用メガネ画像とを撮影して画像デ一夕に取り込む。  The computer 200 is connected to the camera 50 of the front image capturing device 10 and the camera 150 of the overhead image capturing device 100 via a USB interface, and connects the camera 50 and the camera 150 with each other. Remotely control the camera to capture the composition glasses image and the appearance glasses image and capture them all at once.
撮影した合成用メガネ画像は、 画像処理によって人物像と合成するた めの合成用画像データを生成する。  The captured eyeglasses image for synthesis generates image data for synthesis to be synthesized with a human image by image processing.
また、 コンピュータ 2 0 0は通信手段たるネッ トワーク接続機能を有 し、 メガネ販売システム 3 0 0に対して生成された画像データを送信す る。  Further, the computer 200 has a network connection function as a communication means, and transmits the generated image data to the glasses sales system 300.
このような処理を行うコンピュータ 2 0 0には、 U S Bインターフエ ースとネッ トワーク接続機能を備えたパーソナルコンピュー夕やワーク ステーショ ン等を使用することができる。 The computer 200 that performs such processing includes a personal computer or a network with a USB interface and network connection function. Stations and the like can be used.
次に、 コンピュータ 2 0 0によるメガネの撮影と画像処理の流れを説 明する。  Next, the flow of image capturing and image processing by the computer 200 will be described.
処理は大きく分けて、 「メガネ画像撮影」 と 「マスク処理」 と 「デ一 夕登録」 の 3段階に分かれる。  The processing can be broadly divided into three stages: “shooting glasses images”, “mask processing”, and “data registration”.
最初に、 メガネ画像の登録者がメガネ画像登録システム 1 を使用して メガネ画像を登録する処理を、 コンピュータ 2 0 0に表示する画面表示 例を用いて説明する。  First, a process in which a registrant of a glasses image registers a glasses image using the glasses image registration system 1 will be described using a screen display example displayed on the computer 200.
第 2 8図に 「メガネ画像撮影」 における撮影開始前の画面表示例を示 す。 図のように、 「正面撮影」 ボタンと 「外観撮影」 ポタンとがあり、 それぞれ正面画像撮影装置 1 0のディジタルカメラ 5 0と俯瞰画像撮影 装置 1 0 0のディジタルカメラ 1 5 0 とに対して撮影指令を送り、 撮影 された画像データを U S Bインタ一フェース経由でコンピュータ 2 0 0 内に取り込む。  Figure 28 shows an example of the screen display before the start of shooting in “glasses image shooting”. As shown in the figure, there are a “front view” button and an “appearance view” button, respectively, for the digital camera 50 of the front view image capture device 10 and the digital camera 150 of the overhead view image capture device 100. A shooting command is sent, and the captured image data is loaded into the computer 200 via the USB interface.
第 2 9図に 「メガネ画像撮影」 における撮影終了後の画面表示例を示 す。 図のように、 撮影された正面画像と俯瞰画像が画面内に表示される 。 撮影された画像が不良の場合は、 メガネをセッ トし直して、 「正面撮 影」 ポタンや 「外観撮影」 ボタンを押すことで何度でも撮り直すことが できる。 良好な画像が撮影されたら、 「次のフレーム」 ボタンを押すこ とで、 続けて多数のメガネ画像を撮影できる。  Fig. 29 shows an example of the screen display after shooting in “Glasses image shooting”. As shown in the figure, the captured front image and overhead image are displayed on the screen. If the shot image is bad, you can reset the glasses and press the “Front shot” button or the “Appearance shot” button to take the shot again and again. Once a good image has been captured, you can press the “next frame” button to continue capturing many images of the glasses.
第 3 0図に 「マスク処理」 における処理開始前の画面表示例を示す。 図のように、 「元のフォルダ」 部に撮影済みのメガネ画像のファイル名 が表示され、 「マスク作成開始」 ポタンを押すことにより、 撮影済みの メガネ画像についての自動マスク処理が行われる。  FIG. 30 shows an example of a screen display before the processing in the “mask processing”. As shown in the figure, the file name of the captured glasses image is displayed in the “original folder” section, and by pressing the “Start mask creation” button, automatic mask processing is performed on the captured glasses image.
第 3 1図に 「マスク処理」 における処理終了後の画面表示例を示す。 図のように、 「元画像」 部に正面画像撮影装置 1 0によって撮影された 正面画像が、 「表示用画像」 部に正面画像の下部のスケール等をカッ ト した画像が、 「合成用画像」 部に正面画像のレンズ部を希望する色に着 色した画像が、 「フレームマスク」 部に正面画像のフレーム部分のみを 抽出したフレームマスク画像が、 「レンズマスク」 部に正面画像のレン ズ部分のみを抽出したレンズマスク画像が、 それぞれ表示される。 尚、 レンズの色は左下部に設けた色から選択する。 Fig. 31 shows an example of the screen display after the processing in the "mask processing" is completed. As shown in the figure, the front image was captured by the front image capturing device 10 in the “original image” section. The front image is an image in which the scale etc. of the lower part of the front image are cut in the “display image” section, and the image in which the lens of the front image is colored in the desired color is the “frame mask” in the “composite image” section. A frame mask image in which only the frame portion of the front image is extracted is displayed in the "" portion, and a lens mask image in which only the lens portion of the front image is extracted is displayed in the "lens mask" portion. The color of the lens is selected from the colors provided at the lower left.
また、 合成用画像を標準の人物像と合成したテス ト画像が 「メガネ確 認」 部に表示される。 このとき、 「レンズの透過率」 部に数値を入力す ると、 設定された透過率で人物像と合成される。 また、 人物像と合成す る際のメガネの位置は矢印ポタンでアジャス トできる。  In addition, a test image in which the image for synthesis is synthesized with a standard human image is displayed in the “glasses check” section. At this time, if a numerical value is entered in the “lens transmittance” section, the image is synthesized with the human image at the set transmittance. Also, the position of the glasses when combining with the human image can be adjusted with the arrow button.
自動マスク処理がうまく行かないときは、 「調整」 ボタンを押すこと で、 マスクを手動で編集する 「マスク手動編集」 を行うことができる。 第 3 2図に 「マスク手動編集」 の画面表示例を示す。 図のように、 「 R G B表示」 ポタンを押すと合成用画像が、 「マスク半透明表示」 ポ夕 ンを押すと合成用画像にマスク画像を半透明合成した画像が、 「R G B なし」 ポタンを押すとマスク画像が表示される。 このとき、 「レンズ編 集」 ポタンを選択するとレンズマスク画像が使用され、 「フレームマス ク編集」 ポタンを選択するとフレームマスク画像が使用される。  If the automatic masking process is not successful, you can press the "Adjust" button to manually edit the mask and perform "Mask Manual Edit". Fig. 32 shows an example of the screen display of “Manual editing of mask”. As shown in the figure, press the “RGB Display” button to display the image for compositing, and press the “Translucent Mask” button to display the image obtained by translucently combining the mask image with the image for compositing. Press to display the mask image. At this time, selecting the “Edit Lens” button uses the lens mask image, and selecting the “Edit Frame Mask” button uses the frame mask image.
ここで、 「多角形セッ ト」 ポタンを選択し、 マウスで画面上をクリツ クすることで、 多角形を描画することができるので、 これによつてレン ズもしくはフレームの輪郭を設定していく ことで、 手動でマスクを編集 することができる。  Here, the polygon can be drawn by selecting the “Polygon Set” button and clicking on the screen with the mouse, so that the contour of the lens or frame can be set. This allows you to edit the mask manually.
尚、 このとき 「スプライン」 をチェックしておく と、 滑らかな曲線が 自動的に当てはめられ、 滑らかな輪郭のマスクを生成することができる 第 3 3図に 「データ登録」 の登録開始前の画面表示例を示す。 図のよ うに、 基本項目として、 商品コード · メガネの種別 · 商品品番 · カラー 品番 · ブランドを設定し、 フレーム情報として、 性別 · タイプ · フレー ム色 · 色違い · レンズ径 · 鼻幅 · テンプル長を設定し、 その他の情報と して、 価格 · 販売ステータス · 商品表示フラグ ·在庫管理情報 · 販売年 月 日 , 登録者を設定する。 If you check “Spline” at this time, a smooth curve is automatically applied, and a mask with a smooth outline can be generated. Fig. 33 shows the screen before registration of “Data registration” is started. The display example is shown. As shown Basically, set product code, glasses type, product number, color number, brand as basic items, and set gender, type, frame color, different colors, lens diameter, nose width, temple length as frame information. And other information such as price, sales status, product display flag, inventory management information, sales date, and registrant.
第 3 4図に 「データ登録」 の登録終了後の画面表示例を示す。 図のよ うに、 入力された商品コードに従って、 対応する画像ファイルが選択さ れ、 「画像」 部に表示用画像 · フレームマスク画像 · レンズマスク画像 • 合成用画像 ·外観画像が表示される。 必要な項目を設定して 「登録」 ポタンを押すことで、 設定データが登録され、 ネッ トワークを介してメ ガネ販売システム 3 0 0に送信される。  Fig. 34 shows an example of the screen display after registration of "data registration". As shown in the figure, the corresponding image file is selected according to the entered product code, and the display image, frame mask image, lens mask image, image for synthesis, and appearance image are displayed in the “image” section. By setting the required items and pressing the “Register” button, the setting data is registered and transmitted to the Megane sales system 300 via the network.
第 5図に、 以上のような登録処理を行うコンピュータ 2 0 0の全体処 理フローの一例を示す。  FIG. 5 shows an example of an overall processing flow of the computer 200 that performs the above-described registration processing.
「メガネ画像撮影」 では、 メガネ画像撮影の画面表示を行い (S 1 0 0 ) 、 「正面撮影」 ボタンが押されると (S 1 0 2 ) 、 正面画像撮影装 置 1 0のカメラ 5 0に撮影指令を送り、 撮影された画像を正面画像とし て取得する (S 1 0 4 ) 。 また、 「外観撮影」 ポタンが押されると (S 1 0 6 ) 、 俯瞰画像撮影装置 1 0 0のカメラ 1 5 0に撮影指令を送り、 撮影された画像を俯瞰画像として取得する (S 1 0 8 ) 。 「次のフレー ム」 ポタンが押されると (S 1 1 0 ) 、 撮影番号を更新し (S 1 1 2 ) 、 これを 「終了」 ボタンが押されるまで S 1 0 2から繰返す (S 1 1 4  In “Glasses image shooting”, the screen for shooting glasses images is displayed (S100), and when the “Front shot” button is pressed (S1002), the camera 50 of the front image shooting device 10 is displayed. A photographing command is sent, and the photographed image is acquired as a front image (S104). When the “appearance photographing” button is pressed (S 106), a photographing command is sent to the camera 150 of the bird's-eye image photographing device 100, and the photographed image is acquired as a bird's-eye image (S 110). 8). When the "next frame" button is pressed (S110), the shooting number is updated (S112), and this is repeated from S102 until the "End" button is pressed (S111) Four
「マスク処理」では、 マスク処理の画面表示を行い ( S 1 1 6 ) 、 「マ スク作成開始」 ポタンが押されると (S 1 1 8 ) 、 撮影済みの正面画像 についてフレームマスク画像とレンズマスク画像を生成する 「マスク自 動処理」 ( S 2 0 0 ) を起動する。 次に、 生成されたフレームマスク画像とレンズマスク画像と合成用画 像によって人物像との合成テス トを行う 「合成画像表示処理」 ( S 3 0 0 ) を起動する。 「調整」 ボタンが押されると、 マスク画像を手動で編 集するための 「マスク手動編集処理」 (S 4 0 0 ) を起動し、 編集され たマスク画像を使用して 「合成画像表示処理」 (S 3 0 0 ) を行う。 以 上の処理を、 「終了」ポタンが押されるまで S 1 1 8から繰返す (S 1 2 2 ) In “Mask processing”, the screen of the mask processing is displayed (S116), and when the “Start masking” button is pressed (S118), the frame mask image and lens mask image of the captured front image are displayed. Activate “mask automatic processing” (S200). Next, a "synthesized image display process" (S300) for performing a synthesis test with a human image using the generated frame mask image, lens mask image, and synthesis image is started. When the “Adjust” button is pressed, “Mask Manual Editing” (S400) for manually editing the mask image is started, and “Synthetic Image Display Processing” is performed using the edited mask image. (S300). The above processing is repeated from S118 until the "End" button is pressed (S122)
「データ登録」 では、 データ登録の画面表示を行い (S 1 2 4 ) 、 画 像データをメガネの諸元とともに登録する 「デ一夕登録処理」 (S 5 0 0 ) を起動し、 登録されたデータをメガネ販売システム 3 0 0へ送信す る ( S 1 2 6 ) 。  In the “data registration”, the data registration screen is displayed (S124), and the “de-night registration process” (S500), which registers the image data together with the specifications of the glasses, is started and registered. The transmitted data is transmitted to the glasses sales system 300 (S126).
次に、 「マスク自動処理」 (S 2 0 0 ) の詳細について説明する。 第 6図に 「マスク自動処理」 の処理フローの一例を示す。 図のように 、 最初に背景部からメガネ部に向ってメガネの外周輪郭を検出する 「メ ガネ外周検出処理」 (S 2 2 0 ) を行い、 検出されたメガネの外周から 左レンズ位置を推定し (S 2 0 2 ) 、 左レンズについてレンズの外周輪 郭を検出する 「レンズ外周検出処理」 (S 2 5 0 ) を行う。 同様に、 検 出されたメガネの外周から右レンズ位置を推定し (S 2 0 4 ) 、 右レン ズについてレンズの外周輪郭を検出する 「レンズ外周検出処理」 (S 2 5 2 ) を行う。 尚、 左右のレンズ位置の推定 (S 2 0 2 、 S 2 0 4 ) に ついては、 後に述べるように、 メガネ外周検出処理 (S 2 2 0 ) によつ て得られた外周デ一夕の内、 所定の特徴点における境界からメガネのフ レーム幅を考慮した内側にレンズ外周検出開始点を設定し、 これを用い てレンズの内部から周辺部に向ってレンズの外周を検出する。  Next, the details of the “mask automatic processing” (S 200) will be described. Fig. 6 shows an example of the processing flow of "mask automatic processing". As shown in the figure, first, a “glass outline detection process” (S220) is performed to detect the outline of the glasses from the background toward the glasses, and the left lens position is estimated from the detected outline of the glasses. Then, a “lens outer circumference detection process” (S 250) for detecting the outer circumference of the lens for the left lens is performed. Similarly, the right lens position is estimated from the detected outer circumference of the glasses (S204), and a "lens outer circumference detection process" (S225) for detecting the outer circumference of the lens for the right lens is performed. The estimation of the left and right lens positions (S202, S204) will be described later, as will be described later, in the outer periphery data obtained by the eyeglass outer periphery detection processing (S220). Then, a lens outer periphery detection start point is set inside from the boundary at the predetermined feature point in consideration of the frame width of the glasses, and the outer periphery of the lens is detected from the inside of the lens toward the peripheral portion using the start point.
次に、 「レンズ外周検出処理」 (S 2 5 0 、 S 2 5 2 ) によって求め られた左右のレンズ外周データからレンズマスク画像を生成し ( S 2 0 6 ) 、 生成されたレンズマスク画像について左右比較補正処理を行う ( S 2 0 8 ) 。 Next, a lens mask image is generated from the left and right lens outer periphery data obtained by the “lens outer periphery detection processing” (S250, S252) (S250). 6) Then, a left-right comparison correction process is performed on the generated lens mask image (S208).
レンズマスク画像の生成 (S 2 0 6 ) は、 左右のレンズ外周データに 囲まれる領域を塗りつぶして、 内部を白、 外部を黒とした画像を生成し 、 レンズマスク画像とする。  In the generation of the lens mask image (S206), the area surrounded by the left and right lens outer peripheral data is painted out, and an image in which the inside is white and the outside is black is generated to be a lens mask image.
左右比較補正処理 (S 2 0 8 ) は、 生成されたレンズマスク画像をメ ガネの中心から折り返して左右の画像を比較し、 差異部分を抽出する。 差異部分が所定の大きさを超えている場合には、 左右のいずれがレンズ 外周データから曲線近似により求めたラインょり外れているかを判断し 、 外れている側のレンズマスク画像に他の側のレンズマスク画像を折り 返して書き込む。 これにより、 一方のレンズの外周付近にラベルが貼り 付けられていたり、 影や写りこみ等のためにレンズの外周検出を失敗し た場合でも、 正しく レンズマスク画像を生成することが可能となる。 また、 「メガネ外周検出処理」 ( S 2 2 0 ) によって求められたメガ ネ外周データと 「レンズ外周検出処理」 (S 2 5 0、 S 2 5 2 ) によつ て求められた左右のレンズ外周データからフレームマスク画像を生成し ( S 2 1 0 ) 、 生成されたフレームマスク画像の左右を比較して補正を 行う ( S 2 1 2 ) 。  In the left / right comparison correction processing (S208), the generated lens mask image is turned back from the center of the stake, and the left and right images are compared to extract a difference. If the difference exceeds a predetermined size, it is determined which of the left and right is out of the line determined by curve approximation from the lens outer peripheral data, and the other side is added to the lens mask image on the other side. Write back the lens mask image of. This makes it possible to correctly generate a lens mask image even when a label is stuck near the outer periphery of one of the lenses, or when detection of the outer periphery of the lens fails due to a shadow or reflection. In addition, the perimeter data of the lens obtained by the “glass outer circumference detection processing” (S220) and the left and right lenses obtained by the “lens outer circumference detection processing” (S250, S252) A frame mask image is generated from the outer periphery data (S210), and the left and right sides of the generated frame mask image are compared for correction (S212).
フレームマスク画像の生成 (S 2 1 0 ) は、 メガネ外周データと左右 のレンズ外周データとの間の領域を塗りつぶし、 該当領域を白、 非該当 領域を黒とした画像を生成し、 フレームマスク画像とする。 ここで、 ナ イロ一ルゃツーポイントのようにリムの一部または前部を欠くメガネで は、 メガネの外周とレンズの外周の重複する部分において境界検出の方 向性の問題から細い線状の領域が発生する可能性があるが、 これは例え ば生成されたフレームマスク画像を収縮して膨張する収縮 · 膨張処理を 用いることにより除去できる。 左右の比較補正処理 (S 2 1 2 ) は、 生成されたフレームマスク画像 をメガネの中心から折り返して左右の画像を比較し、 差異部分を抽出す る。 差異部分が所定の大きさを超えている場合には、 左右のいずれがメ ガネ外周データおよびレンズ外周データから曲線近似により求めたライ ンより外れているかを判断し、 外れている側のフレームマスク画像に他 の側のフレームマスク画像を折り返して書き込む。 これにより、 影や写 りこみ等のためにメガネゃレンズの外周検出を失敗した場合でも、 正し くフレームマスク画像を生成することが可能となる。 In generating the frame mask image (S210), the area between the outer circumference data of the glasses and the outer circumference data of the left and right lenses is filled, and an image in which the corresponding area is white and the non-applicable area is black is generated as a frame mask image. . Here, in glasses that lack a part of the rim or the front part, such as a two-point two-point model, a thin line is formed due to the problem of the direction of boundary detection at the overlapping part of the outer periphery of the glasses and the outer periphery of the lens. There is a possibility that this region may occur, but this can be removed by using, for example, a contraction / expansion process that contracts and expands the generated frame mask image. In the left and right comparison and correction processing (S2122), the generated frame mask image is folded back from the center of the glasses, and the left and right images are compared to extract a difference. If the difference exceeds a predetermined size, it is determined which of the right and left is out of the line obtained by curve approximation from the outer periphery data of the lens and the outer periphery data of the lens, and the frame mask image on the off side is determined. The other side of the frame mask image is written back. This makes it possible to correctly generate a frame mask image even when the detection of the outer periphery of the glasses / lenses has failed due to a shadow or reflection.
第 7図にメガネ外周検出処理 (S 2 2 0 ) の処理フローの一例を示す 。 図のように、 最初にメガネの境界検出開始点を選択する (S 2 2 2 ) 。 メガネの境界検出開始点は、 あらかじめメガネの特徴点に対して背景 部からメガネ部に向ってアプローチするラインを定め、 そのスタート点 から選択する。 正面画像撮影装置 1 0において、 メガネ 2はトルソー 3 0にセットし、 レンズ部分はメガネ台座 3 2に置かれるので、 メガネ画 像中のメガネの位置や存在範囲は一定範囲に限定される。 そこで、 メガ ネ画像中のメガネ存在領域 4を切り出し、 メガネ存在領域 4の外周から メガネに向ってメガネの境界を検出する処理を行う。  FIG. 7 shows an example of a processing flow of the glasses outer periphery detection processing (S220). As shown in the figure, first, a boundary detection start point of the glasses is selected (S2222). For the boundary detection start point of the glasses, a line approaching the feature points of the glasses from the background to the glasses section is determined in advance, and the line is selected from the start point. In the front image capturing apparatus 10, the glasses 2 are set on the torso 30 and the lens portion is placed on the glasses pedestal 32, so that the position and the existence range of the glasses in the glasses image are limited to a certain range. Therefore, a process is performed to cut out the glasses present region 4 in the magenta image and detect the boundary of the glasses from the outer periphery of the glasses present region 4 toward the glasses.
例えば、 第 1 2図に示すように、 メガネの特徴点として、 メガネの外 周を比較的安定に検出できる点を選び、 これに対してメガネ存在領域 4 の外周上に、 P 1から P 1 7のような開始点を設定する。  For example, as shown in Fig. 12, as the characteristic points of the eyeglasses, points that can detect the outer periphery of the eyeglasses relatively stably are selected. On the other hand, P1 to P1 Set a starting point like 7
ここでは、 メガネの上部については上方から下方に向って、 メガネの 下部については下方から上方に向ってメガネの外周を検出するようにし たが、 これに限定されるものではなく、 メガネの形状に沿って横方向や 斜め方向からもアプローチする候補点を設けるようにしてもよい。  Here, the upper part of the glasses is detected from above to below, and the lower part of the glasses is detected from below to above, but the present invention is not limited to this. It is also possible to provide candidate points for approaching from a horizontal direction or an oblique direction.
そして、 すべての候補点についての処理を完了するまで、 以下のステ ップを繰返す ( S 2 2 4 ) 。 選択した開始点について、 背景部からメガネ部に向って境界を検出す るメガネ境界検出処理を行う (S 2 2 6 ) 。 境界の検出は、 ライン上の 各画素の輝度を取出し、 所定以上の輝度変化のある点を抽出する。 尚、 メガネのフレーム部やレンズ部は背景より明るい場合と暗い場合とがあ るので、 ここでは背景に対してプラス側とマイナス側の両方の輝度変化 を検出している。 境界の検出が成功しないときは S 2 2 2に戻って、 次 のメガネ境界検出開始点について、 メガネ境界検出処理を行う (S 2 2 8 ) 。 Then, the following steps are repeated until the processing for all candidate points is completed (S2224). For the selected start point, glasses boundary detection processing for detecting a boundary from the background portion toward the glasses portion is performed (S226). To detect the boundary, the luminance of each pixel on the line is extracted, and points having a luminance change equal to or greater than a predetermined value are extracted. Since the frame and lens of the glasses may be brighter or darker than the background, here, the luminance change on both the plus side and the minus side with respect to the background is detected. If the boundary detection is not successful, the flow returns to S222, and the eyeglass boundary detection processing is performed for the next eyeglass boundary detection start point (S228).
境界の検出に成功すると、 その境界を起点として以下のステツプによ つてメガネの境界を順次追跡するメガネ境界追跡処理を行う。 すなわち 、 検出した境界をメガネ外周データに登録し (S 2 3 0 ) 、 検出した境 界の近傍に新しい境界が存在するかを検出し (S 2 3 2 ) 、 検出に成功 すると (S 2 3 4 ) , 検出した新しい境界に移動し (S 2 3 6 ) 、 追跡 を完了するまで S 2 3 0から繰返す ( S 2 3 8 ) 。  If the detection of the boundary is successful, the eyeglasses boundary tracking process for sequentially tracking the boundaries of the glasses starting from the boundary in the following steps is performed. That is, the detected boundary is registered in the eyeglass periphery data (S230), it is detected whether or not a new boundary exists near the detected boundary (S232), and if the detection is successful (S23) 4), move to the detected new boundary (S2336), and repeat from S2330 until the tracking is completed (S238).
近傍はいわゆる 8近傍を用い、 第 1 3図に示すように現在の画素を基 準として 8つの隣接点を選び、 前回の境界の次から一定の方向に各画素 の輝度を抽出して、 境界の有無を検出する。 例えば、 隣接点を右回りに 次の境界を検出するようにすると、 メガネの境界を右回りに追跡するこ とができる。  As shown in Fig. 13, eight neighboring points are selected on the basis of the current pixel, and the brightness of each pixel is extracted in a certain direction after the previous boundary. Is detected. For example, if the next boundary is detected clockwise from the adjacent point, the boundary of the glasses can be tracked clockwise.
次の境界が検出できなかったときは (S 2 3 4 ) 、 所定回数連続して 不検出となるまでは (S 2 4 0 ) 、 これまでに検出した外周データから 曲線近似等によって次の境界を推定し (S 2 4 2 ) 、 S 2 3 2から繰返 す。 所定回数連続して不検出となったときは (S 2 4 0 ) 、 S 2 2 2に 戻って次のメガネ境界検出開始点を選択してメガネ境界追跡処理を繰返 す。  If the next boundary cannot be detected (S2334), the next boundary is determined by curve approximation or the like from the outer circumference data detected so far until no detection is made continuously (S2400) until the predetermined boundary is not detected. Is estimated (S 2 42), and the process is repeated from S 2 32. If no detection has been performed continuously for a predetermined number of times (S240), the process returns to S222, selects the next eyeglass boundary detection start point, and repeats the eyeglass boundary tracking processing.
以上のような、 メガネ境界追跡処理を行った場合のメガネ外周追跡過 程を第 1 4図に示す。 図のように、 例えばメガネ境界検出開始点 P 3か ら開始して、 最初にメガネの境界 F 1を検出し、 そこから右回りに F 2 、 F 3 、 F 4、 …と境界を追跡して行く。 As described above, when the eyeglasses boundary tracking process is performed, The process is shown in FIG. As shown in the figure, for example, starting from the eyeglass boundary detection start point P3, the boundary F1 of the eyeglasses is detected first, and the boundaries are tracked clockwise from F2, F3, F4,…. Go.
追跡の完了は (S 2 3 8 ) 、 原則として追跡を開始したスタート点に 戻ってきた場合を言うが、 ここでは途中でメガネの外周が途切れている ために Uターンする可能性があるので、 既に検出した外周と一定の距離 で追跡を続行していることを検知し、 この場合にも追跡の完了とした。 追跡を完了すると、 メガネ外周データの欠損部を補間する (S 2 4 4 ) 。 これは、 メガネ画像においてメガネの外周が必ずしもすべて明瞭に 捉えられているとは限らないからであり、 S 2 2 6での背景部からメガ ネ部に向って境界を検出するメガネ境界検出処理と、 S 2 3 0から S 2 3 8のメガネ境界追跡処理とによって検出できなかったメガネ外周部分 を補間する。 補間は、 検出されているメガネ外周デ一夕に基づき、 例え ば曲線近似によって欠損部の外周デ一夕を生成して、 メガネ外周データ に追加する。  Tracking is completed (S 238) in principle when returning to the starting point where tracking started, but here there is a possibility of making a U-turn because the outer circumference of the glasses is interrupted on the way, It was detected that tracking was continued at a certain distance from the already detected outer circumference, and tracking was also completed in this case. When the tracking is completed, the missing part of the glasses outer circumference data is interpolated (S244). This is because not all of the outer circumference of the glasses is clearly captured in the glasses image, and the glasses boundary detection processing for detecting the boundary from the background to the megane in S226. The outer peripheral portion of the glasses that could not be detected by the glasses boundary tracking processing of S230 to S238 is interpolated. In the interpolation, based on the detected outer circumference of the glasses, an outer circumference of the missing portion is generated by, for example, curve approximation, and added to the outer circumference data of the glasses.
次に、 メガネ外周データから不正突起部を除去する (S 2 4 6 ) 。 こ れは、 背景部分に影や写りこみ等によってメガネの外周に生じた不正な 突起を除去するもので、 例えば順次所定領域の検出されたメガネ外周デ —夕から曲線近似によって次の領域のメガネ外周データを推定し、 検出 されたメガネ外周データを推定されたメガネ外周データと比較して所定 距離以上離れている場合は不正な突起と判断し、 検出されたメガネ外周 データを推定されたメガネ外周データに置きかえる。  Next, the illegal projections are removed from the eyeglass periphery data (S246). This is to remove illegal projections on the outer periphery of the glasses due to shadows or reflections on the background. The outer circumference data is estimated, and the detected eyewear outer circumference data is compared with the estimated eyewear outer circumference data. If the distance is more than a predetermined distance, the detected eyewear outer circumference data is determined to be an invalid projection, and the detected eyewear outer circumference data is estimated. Replace with data.
最後に、 メガネ外周データを平滑化する (S 2 4 8 ) 。 これは、 境界 部の明るさのムラ等によって生ずる凹凸をならすもので、 例えば座標デ —夕を前後一定範囲の座標データの平均値に置き換えていく。 また、 平 滑化はメガネ外周データから最小二乗近似等によって推定した曲線に置 き換えていくようにしてもよい。 Finally, the outer circumference data of the glasses is smoothed (S248). This is to smooth out irregularities caused by unevenness in brightness at the boundary. For example, coordinate data is replaced with the average value of coordinate data in a certain range before and after. In addition, smoothing is applied to a curve estimated by least squares approximation from eyeglass circumference data. You may make it change.
尚、 メガネの外周にはブリッジ部、 鼻パッ ド部、 智部のように角をな す部分があり、 この部分を平滑化すると、 角の部分が丸くなるので、 前 後で平均方位が変化する部分については平滑化をしないようにした。 第 8図にレンズ外周検出処理 (S 2 5 0、 S 2 5 2 ) の処理フローの 一例を示す。 図のように、 最初にレンズの境界検出開始点を選択する ( S 2 54 ) 。 これは、 メガネ外周検出処理 (S 2 2 0 ) によって得られ たメガネ外周データから、 前述のメガネ特徴点のうち、 左右の'レンズ部 分にかかるデータを抽出し、 これからメガネのフレーム幅を考慮して、 所定幅内側の位置を候補点として、 このなかから選択する。 例えば、 第 1 2図において、 メガネ境界検出開始点のうち P 2、 P 3、 P 4、 P I 1、 P I 2、 P 1 3が左レンズ部にかかるものであり、 これに対応する Q 2、 Q 3、 Q 4、 Q l l、 Q 1 2、 Q 1 3が左レンズ境界検出開始点 の候補であり、 同様にメガネ境界検出開始点のうち P 6、 P 7、 P 8、 P 1 5、 P 1 6、 P 1 7が右レンズ部にかかるものであり、 これに対応 する Q 6、 Q 7、 Q 8、 Q 1 5、 Q 1 6、 Q 1 7が右レンズ境界検出開 始点の候補である。 この場合、 メガネ外周デ一夕のうちの左レンズにか かるものから左レンズの内側に左レンズ境界検出開始ライン 6を設定し 、 メガネ外周データのうちの右レンズにかかるものから右レンズの内側 に右レンズ境界検出開始ライン 8を設定し、 これらの境界検出開始ライ ンの任意位置から左右のレンズ境界検出開始点を選択するようにしても よい。  The outer circumference of the glasses has corners such as a bridge, a nose pad, and a tongue, and if this part is smoothed, the corners become rounded, so the average azimuth changes between before and after The smoothed portion was not smoothed. FIG. 8 shows an example of the processing flow of the lens periphery detection processing (S250, S252). As shown in the figure, first, the starting point of the boundary detection of the lens is selected (S254). This is to extract the data related to the left and right 'lens portions among the above-mentioned eyeglass feature points from the eyeglass outer circumference data obtained by the eyeglass outer circumference detection processing (S220), and consider the eyeglass frame width from this Then, a position inside the predetermined width is set as a candidate point and selected from these. For example, in FIG. 12, among the eyeglass boundary detection start points, P2, P3, P4, PI1, PI2, and P13 are on the left lens unit, and the corresponding Q2, Q3, Q4, Qll, Q12, and Q13 are candidates for the left lens boundary detection start point, and similarly, among the eyeglass boundary detection start points, P6, P7, P8, P15, P16 and P17 cover the right lens section, and the corresponding Q6, Q7, Q8, Q15, Q16 and Q17 are candidates for the right lens boundary detection start point. It is. In this case, the left lens boundary detection start line 6 is set inside the left lens from the one around the left lens in the outer periphery of the glasses, and the right lens out of the right lens out of the glasses outer data. Alternatively, the right lens boundary detection start line 8 may be set at the right, and the left and right lens boundary detection start points may be selected from any positions on these boundary detection start lines.
ここでは、 レンズの上部については下方から上方に向って、 レンズの 下部については上方から下方に向ってレンズの外周を検出するようにし たが、 これに限定されるものではなく、 レンズの形状に沿って横方向や 斜め方向からもアプローチする候補点を設けるようにしてもよい。 そして、 メガネ外周検出処理 (S 2 2 0 ) と同様に、 すべての候補点 についての処理を完了するまで、 以下のステップを繰返す (S 2 5 6 ) 選択した開始点について、 レンズ部からレンズ周辺部に向って境界を 検出するレンズ境界検出処理を行う (S 2 5 8 ) 。 境界の検出は、 ライ ン上の各画素の輝度を取出し、 所定以上の輝度変化のある点を抽出する 。 尚、 レンズ部はレンズ周辺部より明るい場合と暗い場合とがあるので 、 ここではレンズ部に対してプラス側とマイナス側の両方の輝度変化を 検出している。 境界の検出が成功しないときは S 2 5 4に戻って、 次の レンズ境界検出開始点について、 レンズ境界検出処理を行う (S 2 6 0Here, the outer periphery of the lens is detected from the upper part of the lens from below to the upper part, and the lower part of the lens is detected from the upper part to the lower part. However, the present invention is not limited to this. It is also possible to provide candidate points for approaching from a horizontal direction or an oblique direction. Then, in the same manner as the eyeglass periphery detection processing (S220), the following steps are repeated until the processing for all the candidate points is completed (S256). The lens boundary detection processing for detecting the boundary is performed toward the section (S258). In detecting the boundary, the luminance of each pixel on the line is extracted, and points having a luminance change of a predetermined value or more are extracted. Since the lens portion may be brighter or darker than the peripheral portion of the lens, the change in luminance on both the plus side and the minus side with respect to the lens portion is detected here. If the boundary detection is not successful, the flow returns to S254, and the lens boundary detection processing is performed for the next lens boundary detection start point (S260)
) o ) o
境界の検出に成功すると、 その境界を起点として以下のステツプによ つてレンズの境界を順次追跡するレンズ境界追跡処理を行う。 すなわち If the detection of the boundary is successful, the lens boundary tracking process for sequentially tracking the boundary of the lens from the boundary as a starting point is performed by the following steps. Ie
、 検出した境界をレンズ外周データに登録し (S 2 6 2 ) 、 検出した境 界の近傍に新しい境界が存在するかを検出し (S 2 6 4 ) 、 検出に成功 すると (S 2 6 6 ) 、 検出した新しい境界に移動し (S 2 6 8 ) 、 追跡 を完了するまで S 2 6 2から繰返す (S 2 7 0 ) 。 近傍はメガネ外周検 出処理と同様に 8近傍を用い、 第 1 3図に示すように現在の画素を基準 として 8つの隣接点を選び、 前回の境界の次から一定の方向に各画素の 輝度を抽出して、 境界の有無を検出する。 例えば、 隣接点を右回りに次 の境界を検出するようにすると、 レンズの境界を左回りに追跡すること ができる。 Then, the detected boundary is registered in the lens outer circumference data (S2662), and whether a new boundary exists near the detected boundary is detected (S264), and if the detection is successful (S266) ), Move to the new boundary detected (S 268), and repeat from S 262 until tracking is completed (S 270). In the vicinity, eight neighbors are used in the same way as the eyeglass perimeter detection processing, and eight adjacent points are selected based on the current pixel as shown in Fig. 13, and the brightness of each pixel in a certain direction from the next point after the previous boundary Is extracted to detect the presence or absence of a boundary. For example, if the next boundary is detected clockwise from an adjacent point, the boundary of the lens can be tracked counterclockwise.
次の境界が検出できなかったときは、 所定回数連続して不検出となる までは (S 2 7 2 ) 、 これまでに検出した外周データから曲線近似等に よって次の境界を推定し (S 2 7 4 ) 、 S 2 6 4から繰返す。 所定回数 連続して不検出となったときは (S 2 7 2 ) 、 S 2 5 4に戻って次のレ ンズ境界検出開始点を選択して追跡処理を繰返す。 If the next boundary cannot be detected, the next boundary is estimated by curve approximation or the like from the perimeter data detected so far until no detection is performed continuously for a predetermined number of times (S272) (S27). 2 7 4) and repeat from S 2 64. When the detection is not performed continuously for a predetermined number of times (S272), the process returns to S254 and returns to the next level. The tracking process is repeated by selecting the start point of the boundary detection.
以上のような、 レンズ境界追跡処理を行った場合のレンズ外周追跡過 程を第 1 4図に示す。 図のように、 左レンズでは、 例えばレンズ境界検 出開始点 Q 3から開始して、 最初にメガネの境界 L 1を検出し、 そこか ら右回りに L 2 、 L 3、 L 4、 …と境界を追跡して行く。 また、 右レン ズでは、 例えばレンズ境界検出開始点 Q 7から開始して、 最初にメガネ の境界 R 1を検出し、 そこから右回りに R 2 、 R 3、 R 4、 …と境界を 追跡して行く。  FIG. 14 shows the lens outer periphery tracking process when the above-described lens boundary tracking process is performed. As shown in the figure, with the left lens, for example, starting from the lens boundary detection start point Q3, the boundary L1 of the glasses is detected first, and then L2, L3, L4, ... And keep track of the boundaries. In the right lens, for example, starting from the lens boundary detection start point Q7, the boundary R1 of the glasses is detected first, and the boundaries are tracked clockwise from R2, R3, R4,…. Go.
追跡の完了は (S 2 7 0 ) 、 原則として追跡を開始したスタート点に 戻ってきた場合を言うが、 ここでは途中でレンズの外周が途切れている ために Uターンする可能性があるので、 既に検出した外周と一定の距離 で追跡を続行していることを検知し、 この場合にも追跡の完了とした。 追跡を完了すると、 レンズ外周データの欠損部を補間する (S 2 7 6 ) 。 これは、 メガネ画像において、 レンズの外周が必ずしもすべて明瞭 に捉えられているとは限らないからであり、 S 2 5 8でのレンズ部から レンズ周辺部に向って境界を検出するレンズ境界検出処理と、 S 2 6 2 から S 2 7 0のレンズ境界追跡処理とによって検出できなかったレンズ 外周部分を補間する。 補間は、 検出されているレンズ外周データに基づ き、 例えば曲線近似によって欠損部の外周データを生成して、 レンズ外 周データに追加する。  Completion of tracking (S270) means, in principle, when returning to the starting point where tracking started, but here there is a possibility of making a U-turn because the outer periphery of the lens is interrupted on the way. It was detected that tracking was continued at a certain distance from the already detected outer circumference, and tracking was also completed in this case. When the tracking is completed, the missing portion of the lens outer circumference data is interpolated (S276). This is because not all of the outer periphery of the lens is clearly captured in the eyeglasses image, and the lens boundary detection processing that detects the boundary from the lens portion toward the lens periphery in S258 And the outer peripheral portion of the lens that could not be detected by the lens boundary tracking processing from S262 to S270. In the interpolation, based on the detected lens outer peripheral data, outer peripheral data of the defective portion is generated by, for example, curve approximation, and added to the lens outer peripheral data.
次に、 レンズ外周データから不正突起部を除去する (S 2 7 8 ) 。 こ れは、 影や写りこみ等によってメガネの外周に生じた不正な突起を除去 するもので、 例えば順次所定領域の検出されたレンズ外周デ一夕から曲 線近似によって次の領域のレンズ外周データを推定し、 検出されたレン ズ外周データを推定されたレンズ外周と比較して所定距離以上離れてい る場合は不正な突起と判断し、 検出されたレンズ外周データを推定され たレンズ外周データに置きかえる。 Next, the illegal projection is removed from the lens outer circumference data (S2778). This is to remove irregular projections generated on the outer periphery of the eyeglasses due to shadows and reflections. The detected lens outer circumference data is compared with the estimated lens outer circumference.If the distance is a predetermined distance or more, it is determined that the projection is incorrect, and the detected lens outer circumference data is estimated. Replaced with the lens outer circumference data.
最後に、 レンズ外周データを平滑化する (S 2 8 0 ) 。 これは、 境界 部の明るさのムラ等によって生ずる凹凸をならすもので、 例えば座標デ 一夕を前後一定範囲の座標データの平均値に置き換えていく。 また、 平 滑化はレンズ外周データから最小二乗近似等によって推定した曲線に置 き換えていくようにしてもよい。  Finally, the lens outer circumference data is smoothed (S280). This is to smooth out irregularities caused by unevenness in brightness at the boundary, for example, by replacing the coordinate data overnight with the average value of coordinate data in a certain range before and after. The smoothing may be replaced by a curve estimated from the lens outer circumference data by least squares approximation or the like.
第 9図に合成画像表示処理 (S 3 0 0 ) の処理フローの一例を示す。 図のように、 最初にマスク処理画面において入力された指定レンズ色お よび指定レンズ透過率を取得する (S 3 0 2 ) 。 次に、 正面画像中のレ ンズマスク部を指定レンズ色に着色した合成用画像を生成し (S 3 0 4 ) 、 正面画像 · 俯瞰画像 · 合成用画像 · フレームマスク画像 · レンズマ スク画像を画面表示する (S 3 0 6 ) 。 また、 マウスで指定された合成 位置情報を取得し (S 3 0 8 ) 、 取得した合成位置情報に基づいてフレ —ムマスク画像およびレンズマスク画像の位置を修正する (S 3 1 0 ) 。  FIG. 9 shows an example of the processing flow of the composite image display processing (S300). As shown in the figure, first, the designated lens color and the designated lens transmittance input on the mask processing screen are acquired (S302). Next, an image for synthesis in which the lens mask portion in the front image is colored with the designated lens color is generated (S304), and the front image, overhead image, image for synthesis, frame mask image, and lens mask image are displayed on the screen. (S306). Further, the CPU acquires the combined position information designated by the mouse (S308), and corrects the positions of the frame mask image and the lens mask image based on the acquired combined position information (S310).
あらかじめ記憶された人物像を取出し (S 3 1 2 ) 、 取出した人物像 のフレームマスク部を合成用画像に置換し (S 3 1 2 ) 、 人物像のレン ズマスク部を指定レンズ色、 指定レンズ透過率で着色し (S 3 1 6) 、 合成された人物像を画面表示する (S 3 1 8) 。  Retrieves a prestored human image (S312), replaces the frame mask portion of the extracted human image with the image for synthesis (S312), and replaces the lens mask portion of the human image with the specified lens color and specified lens transmission. It is colored at a rate (S316), and the synthesized human image is displayed on the screen (S318).
以上の処理を、 「再合成」 ポタンが押されると S 3 0 2から繰返し ( S 3 2 0 ) 、 「終了」 ボタンが押されると終了する (S 3 2 2 ) 。  The above processing is repeated from S302 when the "Resynthesis" button is pressed (S320), and terminated when the "End" button is pressed (S322).
第 1 0図にマスク手動編集処理 (S 4 0 0 ) の処理フローの一例を示 す。 図のように、 マウスクリ ック位置を取得し (S 4 0 2 ) 、 マウスク リ ック位置情報をもとにスプライン曲線を発生する (S 4 0 4 ) 。 これ を、 「設定」 ポタンが押されるまで、 S 4 0 2から繰返す (S 4 0 6 ) 「設定」 ボタンが押されると、 スプライン曲線をメガネ外周データま たはレンズ外周データに登録し (S 4 0 8 ) 、 登録されたメガネ外周デ 一夕およびレンズ外周データに基づいて、 レンズマスク画像を生成し ( S 4 1 0 ) 、 フレームマスク画像を生成する (S 4 1 2 ) 。 レンズマス ク画像の生成およびフレームマスク画像の生成は、 前述のマスク自動処 理における S 2 0 6および S 2 1 0と同様の処理により行う。 FIG. 10 shows an example of the processing flow of the mask manual editing processing (S400). As shown in the figure, the mouse click position is obtained (S402), and a spline curve is generated based on the mouse click position information (S404). This is repeated from S402 until the "Setting" button is pressed (S406) When the “SET” button is pressed, the spline curve is registered in the eyeglass outer data or lens outer data (S408), and the lens mask image is created based on the registered eyeglass outer data and lens outer data. Is generated (S410), and a frame mask image is generated (S412). The generation of the lens mask image and the generation of the frame mask image are performed by the same processing as in S206 and S210 in the above-described mask automatic processing.
以上の処理を「終了」ポタンが押されるまで S 4 0 2から繰返す ( S 4 1 4 ) 。  The above process is repeated from S402 until the "end" button is pressed (S414).
第 1 1図にデータ登録処理 ( S 5 0 0 ) の処理フローの一例を示す。 図のように、 「登録」 ポタンが押されると (S 5 0 2 ) 、 入力された 「 基本項目」 データを取得し (S 5 0 4 ) 、 入力された 「フレーム情報」 データを取得し (S 5 0 6 ) 、 入力された 「その他情報」 データを取得 する ( S 5 0 8 ) 。  FIG. 11 shows an example of the processing flow of the data registration processing (S500). As shown in the figure, when the “register” button is pressed (S502), the input “basic item” data is obtained (S504), and the input “frame information” data is obtained ( S506), the input "other information" data is acquired (S508).
正面画像 · 俯瞰画像 · 合成用画像 · フレームマスク画像 · レンズマス ク画像をメガネ諸元とともに登録する ( S 5 1 0 ) 。  The front image, the bird's-eye view image, the composition image, the frame mask image, and the lens mask image are registered together with the spectacles specifications (S510).
以上の処理を 「閉じる」 ボタンが押されるまで S 5 0 2から繰返す ( S 5 1 2 ) 。  The above processing is repeated from S502 until the "Close" button is pressed (S512).
次に、 本願発明のメガネ画像登録システムにより登録されたデータを 使用してメガネの販売を行う処理について説明する。  Next, processing for selling glasses using the data registered by the glasses image registration system of the present invention will be described.
第 1図で示したように、 メガネ画像登録システム 1はメガネ販売シス テム 3 0 0 とネッ トワークで接続されており、 メガネ画像登録システム 1で生成されたデータはメガネ販売システム 3 0 0に送信され、 メガネ の販売に使用される。  As shown in Fig. 1, the glasses image registration system 1 is connected to the glasses sales system 300 via a network, and the data generated by the glasses image registration system 1 is transmitted to the glasses sales system 300. And used to sell glasses.
メガネ販売システム 3 0 0は、 コンピュータ 2 0 0から受信したメガ ネの仕様や各種力夕口グデータおよび画像データ等を記録するデータべ ースサーバ 3 1 0 と、 メガネ販売のための応用プログラムを実行するァ プリケーションサーバ 3 2 0 と、 需要者とのユーザィン夕ーフェース機 能を提供する W e bサーバ 3 3 0 と、 メガネ販売システム 3 0 0をイン ターネッ トに接続する際の外部からの侵入を防止するためのフアイャゥ オール 3 4 0とから構成される。 The glasses sales system 300 executes a database server 310 for recording the specifications of the megane received from the computer 200, various power data, image data, etc., and an application program for selling glasses. A Prevent external intrusion when connecting the application server 320, the web server 330 that provides a user interface function with consumers, and the glasses sales system 300 to the Internet For firefighters, it consists of 340.
需要者は W e bブラウザを用いて、 本システムの W e bサーバ 3 3 0 にアクセスすることで、 データベースサーバ 3 1 0に保存された情報を もとに、 メガネの注文を行うことができる。 需要者が W e bサーバ 3 3 0上で、 希望するメガネを選択すると、 メガネの外観画像が提示される 。 また需要者がディジ夕ルカメラ等で撮影した顔の画像を送信すること で、 アプリケーションサーバ 3 2 0によって希望するメガネの合成用画 像と合成した画像が提示される。  The consumer can use the Web browser to access the Web server 330 of this system, and order glasses based on the information stored in the database server 310. When the customer selects the desired glasses on the web server 330, an appearance image of the glasses is presented. In addition, by transmitting a face image taken by a consumer with a digital camera or the like, the application server 320 presents an image combined with a desired image for combining glasses.
需要者の顔の画像にメガネの合成用画像を合成する処理は、 前述の合 成画像表示処理 (S 3 0 0 ) の S 3 1 2から S 3 1 8 と同様の処理によ つて実現できる。  The processing of combining the image for combining the glasses with the image of the consumer's face can be realized by the same processing as that from S312 to S318 in the synthetic image display processing (S300) described above. .
これにより、 需要者は自宅に居ながらにして、 自分に似合うメガネを 選択して注文することが可能となり、 販売店もメガネを在庫することな く製造部門から直送できる。 また、 メガネ画像登録システム 1 とネッ ト ワークを介してオンラインで接続することで、 製造現場で試作したメガ ネを即販売するような迅速な処理を実現でき、 より多品種のメガネをよ り低価格で提供することが可能となる。  As a result, consumers can select and order glasses that suit themselves while staying at home, and dealers can send glasses directly from the manufacturing department without stocking them. In addition, by connecting online with the glasses image registration system 1 via a network, it is possible to realize rapid processing such as immediately selling megane prototypes at a manufacturing site, and to reduce the variety of glasses of various types. It can be provided at a price.
上記実施形態では、 メガネ画像登録システムはメガネの外観を提示す るための俯瞰画像を撮影する俯瞰画像撮影装置 1 0 0を、 人物像と合成 するための正面画像を撮影する正面画像撮影装置 1 0と別に備えるとし て説明したが、 本願発明はこれに限定されるものではなく、 正面画像撮 影装置 1 0の撮影ボックス 1 1内のトルソー 3 0、 メガネ台座 3 2およ び各パネルに設けたグレー処理等を取外し式として、 俯瞰画像撮影装置 と兼用するようにしてもよい。 In the above embodiment, the glasses image registration system is configured such that the overhead image capturing device 100 that captures an overhead image for presenting the appearance of the glasses and the front image capturing device 1 that captures a front image for combining with a human image. However, the invention of the present application is not limited to this, and the torso 30 in the photographing box 11 of the front image photographing device 10, the glasses pedestal 32, and each panel are provided. Overhead image capture device with removable gray processing etc. May also be used.
上記実施形態では、 コンピュータ 2 0 0は、 正面画像処理装置 1 0ま たは俯瞰画像撮影装置 1 0 0 とは別に備えるとして説明したが、 本願発 明はこれに限定されるものではなく、 正面画像撮影装置 1 0または俯瞰 画像撮影装置 1 0 0の内部に例えばマイクロコンピュータを内蔵し、 上 記画像処理機能やメガネ販売システムとの通信機能を実行させるように してもよい。 これにより、 メガネ画像登録システムの製造現場での設置 が容易に行え、 撮影装置に直接ネッ トワークを接続することでメガネ販 売システムとの通信が可能となり、 メガネのオンライン販売システムを 構築できる。  In the above embodiment, the computer 200 has been described as being provided separately from the front image processing apparatus 100 or the overhead image capturing apparatus 100. However, the present invention is not limited to this. For example, a microcomputer may be incorporated in the image photographing apparatus 100 or the bird's-eye view image photographing apparatus 100 so as to execute the image processing function and the communication function with the glasses selling system. This makes it easy to install the eyeglass image registration system at the manufacturing site, enables communication with the eyeglass sales system by connecting the network directly to the imaging device, and builds an online eyeglass sales system.
上記実施形態では、 メガネ画像登録システムのコンピュータとメガネ 販売システムとは単にネッ トワーク接続するとして説明したが、 必ずし も専用回線や公衆電話回線等を用いてプライべ一卜に接続する場合に限 定されるものではなく、 この間の接続についてもィンターネッ トを介し て通信するようにしてもよいことは言うまでもない。  In the above embodiment, the computer of the eyeglass image registration system and the eyeglass sales system are described as simply connected to a network. However, only when a private line or a public telephone line is used for private connection. It is needless to say that the connection is not limited, and the connection during this time may be communicated via the Internet.
上記実施形態では、 正面画像撮影装置 1 0および俯瞰画像撮影装置 1 0 0の撮像手段はディジタルカメラを用いるとして説明したが、 本願発 明はこれに限定されるものではなく、 例えば、 ビデオカメラやテレビ力 メラを用い、 そのビデオ信号をコンピュータ 2 0 0に設けたビデオキヤ プチヤボードでキヤプチヤしてディジタルスチル画像としてコンビユー 夕 2 0 0に取込むようにしてもよい。 これにより、 カメラヘッ ドは超小 型の C C Dカメラが使用できるので、 正面画像撮影装置 1 0や俯瞰画像 撮影装置 1 0 0を更に小型化することができる。  In the above embodiment, the imaging means of the front image capturing apparatus 10 and the overhead image capturing apparatus 100 has been described as using a digital camera. However, the present invention is not limited to this. A television camera may be used, and the video signal may be captured by a video capture board provided in the computer 200 and taken into a digital still image as a digital still image. Thus, since a very small CCD camera can be used as the camera head, the front image capturing device 10 and the overhead image capturing device 100 can be further reduced in size.
上記実施形態では、 メガネ画像登録システムの照明手段は、 蛍光灯ラ ンプを使用するとして説明したが、 本願発明はこれに限定されるもので はなく、 メガネの色調に影響を与えない範囲でどのような照明ランプを 使用してもよい。 In the above embodiment, the lighting means of the glasses image registration system has been described as using a fluorescent lamp. However, the present invention is not limited to this, and may be any range within a range that does not affect the color tone of the glasses. Like a lighting lamp May be used.
また、 上記実施形態では、 円形の照明ランプを使用するとして説明し たが、 本願発明は必ずしもこれに限定されるものではなく、 複数の棒状 や卵型の照明ランプを配備するようにしてもよい。 これにより、 同様に 広い範囲から照明することとなり、 影ができにく く、 より外乱の少ない メガネ画像が得られる。  Further, in the above embodiment, the circular illumination lamp is described as being used, but the present invention is not necessarily limited to this, and a plurality of rod-shaped or egg-shaped illumination lamps may be provided. . As a result, the light is similarly illuminated from a wide range, and a shadow image is less likely to be formed, and a glasses image with less disturbance is obtained.
尚、 照明ランプは、 必ずしも連続点灯するランプである必要は無く、 撮像手段による撮像に同期して発光するフラッシュ等を用いてもよく、 本願発明の効果を奏する。  Note that the illumination lamp does not necessarily need to be a lamp that is continuously lit, and a flash or the like that emits light in synchronization with imaging by the imaging unit may be used, and the effects of the present invention are achieved.
上記実施形態では、 撮影するメガネを全方位から均一に照明したり、 メガネ固定部材の上下の明るさを均一化したり、 各種の外乱が撮像手段 に写りこむことを抑制するために、 撮影ボックスの内面にグレー処理や グラデーション処理を施すとして説明したが、 本願発明は必ずしもこれ に限定されるものではなく、 照明手段を分散して配備し、 発光強度を調 節したり、 カバー等を設けて減光するようにしてもよく、 本願発明の効 果を奏する。  In the above embodiment, in order to uniformly illuminate the glasses to be photographed from all directions, to equalize the brightness of the upper and lower portions of the glasses fixing member, and to suppress various disturbances from being reflected in the imaging means, Although it has been described that the inner surface is subjected to gray processing and gradation processing, the present invention is not necessarily limited to this, and the lighting means is dispersed and arranged, and the emission intensity is adjusted, and a reduction is provided by providing a cover or the like. It may be made to emit light, and the effect of the present invention is exhibited.
上記実施形態では、 メガネ境界検出処理、 メガネ境界追跡処理、 レン ズ境界検出処理、 レンズ境界追跡処理の処理対象となる正面画像の前処 理についての説明は省略しているが、 必要に応じて明るさのムラを除去 するためにシェーディ ング補正処理を加えたり、 ノイズを除去するため に平滑化処理を加えたり、 メガネゃレンズの外周輪郭を強調するために 鮮鋭化処理を加えたりすることが望ましい。 これにより、 より安定にマ スク自動処理が行えるようになる。  In the above embodiment, the description of the pre-processing of the front image targeted for the eyeglass boundary detection processing, the eyeglass boundary tracking processing, the lens boundary detection processing, and the lens boundary tracking processing is omitted. Adding shading correction processing to remove uneven brightness, adding smoothing processing to remove noise, and adding sharpening processing to enhance the outer contour of glasses and lenses. desirable. As a result, the mask automatic processing can be performed more stably.
上記実施形態では、 メガネ境界検出処理やレンズ境界検出処理の後に 、 それぞれメガネ境界追跡処理やレンズ境界追跡処理を行うとして説明 したが、 本願発明はこれに限定されるものではなく、 メガネ境界検出処 理ゃレンズ境界検出処理を行うピッチを細かく し、 これにより求めたメ ガネの境界やレンズの境界に対してメガネ外周補間処理やレンズ外周補 間処理によってメガネの外周やレンズの外周を求めるようにしてもよい 上記実施形態では、 メガネ外周検出処理におけるメガネ境界検出処理 およびレンズ外周検出処理におけるレンズ境界検出処理は、 ライン上の 各画素の輝度を取出し、 所定以上の輝度変化のある点を抽出するとして 説明したが、 本願発明はこれに限定されるものではなく、 例えば画像全 体または特定部位の輝度分布 (ヒス トグラム) を求め、 モード法 · Ρ夕 ィル法 · 判別分析法等により背景部とメガネ部またはレンズ部と周辺部 を区分する輝度レベルの閾値を求めて境界を検出するようにしてもよい 尚、 その際に、 最初は広い範囲のヒス トグラムを求めて境界検出を試 み、 得られた境界情報から範囲を絞ってヒストグラムを求めて、 より厳 格な閾値を求める、 階層的閾値設定法を用いてもよい。 これにより、 検 出の困難なコントラス 卜の低い画像についての境界検出が可能となる。 その他、 例えば微分処理、 閾値処理、 細線化処理を順に行って外周輪 郭を求める方法を採用してもよい。 In the above embodiment, the description has been made assuming that the eyeglasses boundary tracking processing and the lens boundary tracking processing are performed after the eyeglasses boundary detection processing and the lens boundary detection processing, respectively. However, the present invention is not limited to this. The pitch at which the lens boundary detection process is performed is made finer, and the outer periphery of the glasses and the outer periphery of the lens are determined by the outer periphery interpolation process and the outer periphery interpolation process of the eyeglasses and the lens boundaries. In the above embodiment, the eyeglass boundary detection processing in the eyeglass circumference detection processing and the lens boundary detection processing in the lens circumference detection processing take out the luminance of each pixel on the line and extract points having a luminance change equal to or more than a predetermined value. However, the present invention is not limited to this. For example, the luminance distribution (histogram) of the entire image or a specific portion is obtained, and the background portion is determined by a modal method, a sunset filter method, a discriminant analysis method, or the like. The boundary may be detected by calculating the threshold of the brightness level that separates the lens and the glasses or the lens from the surroundings. Initially attempts to boundary detection seeking histogram of a wide range, and a histogram narrow down from the obtained edge information, obtaining a more strict threshold, it may be used a hierarchical threshold setting method. This makes it possible to detect the boundary of an image with low contrast that is difficult to detect. In addition, for example, a method of sequentially performing differential processing, threshold processing, and thinning processing to obtain an outer peripheral contour may be employed.
上記実施形態では、 メガネの外周検出処理やレンズの外周検出処理は 、 メガネの機種に拘らず単一の処理により行うものとして説明したが、 マスク処理においてメガネの機種情報を取得して、 取得されたメガネの 機種情報を活用してメガネの外周やレンズの外周を求めるようにしても よい。  In the above-described embodiment, the description has been given assuming that the outer circumference detection processing of the glasses and the outer circumference detection processing of the lens are performed by a single processing regardless of the type of the glasses. The outer circumference of the glasses or the outer circumference of the lens may be obtained by utilizing the model information of the glasses.
例えば、 第 3 5図のように 「マスク処理」 の表示画面においてメガネ の機種を選択する機種選択ボタンを備えた 「個別のマスク再作成」 部を 設け、 オペレー夕が自動生成されたマスクを不適切と判断したときに、 機種選択ポタンを押すことで、 機種別に登録された情報を取出してマス クを再生成するようにしてもよい。 For example, as shown in Fig. 35, on the "Mask processing" display screen, there is a "Recreate individual mask" section with a model selection button for selecting the model of the glasses, and the mask for which the operating system is automatically generated cannot be changed. When deemed appropriate, By pressing the model selection button, information registered for each model may be extracted and the mask may be regenerated.
これは、 例えば第 5図の処理フローの S 1 2 0において、 機種選択ボ 夕ンが押されたか否かを判断し、 機種選別ボタンが押されていた場合は メガネの機種別にあらかじめ登録された情報を取出し、 メガネ境界検出 処理やレンズ境界検出処理における輝度変化の閾値を変更して、 S 2 0 0に戻ってマスク自動処理を再起動するようにすればよい。 また、 更に メガネの機種別に登録された情報に基づいてメガネの外周やレンズの外 周の検出範囲を変更して、 マスク自動処理を再起動するようにしてもよ い。  This is because, for example, in S120 of the processing flow of FIG. 5, it is determined whether or not the model selection button has been pressed, and if the model selection button has been pressed, it is registered in advance for each type of glasses. The information may be extracted, the threshold value of the luminance change in the eyeglasses boundary detection processing and the lens boundary detection processing may be changed, and the process may return to S200 and restart the mask automatic processing. Further, the mask automatic processing may be restarted by changing the detection range of the outer circumference of the glasses or the outer circumference of the lens based on information registered for each model of the glasses.
このようにすることで、 各メガネの機種に対応して、 より厳格にメガ ネの外周やレンズの外周を検出できるので、 自動マスク生成に失敗した 場合でも、 オペレータが補助的に機種選択ポタンを押すことでマスクを 容易に生成できる。  In this way, the outer periphery of the lens and the outer periphery of the lens can be detected more strictly in accordance with the model of each eyeglass, so even if automatic mask generation fails, the operator can automatically select the model selection button. Pressing can easily generate a mask.
尚、 メガネ境界検出処理やレンズ境界検出処理において、 輝度レベル により境界を検出する方法を採用する場合にはメガネの機種によって輝 度レベルの閾値を変更するようにしてもよく、 その他の方法を採用する 場合にはメガネの機種によって判定方法や各種の判定基準を変更するよ うにしてもよい。  In the eyeglass boundary detection process and the lens boundary detection process, when the method of detecting the boundary by the luminance level is adopted, the threshold of the luminance level may be changed depending on the type of the glasses, and other methods are employed. In such a case, the judgment method and various judgment criteria may be changed depending on the type of glasses.
上記実施形態では、 マスク手動編集は、 マウスで指定したポイントか ら外周データを編集すると説明したが、 マスク自動処理によって生成さ れた外周データの一部をマウスでドラグすることにより、 外周デ一夕を 修正する機能を設けるようにしてもよい。  In the above-described embodiment, the manual mask editing is described as editing the outer peripheral data from a point designated by the mouse. However, by dragging a part of the outer peripheral data generated by the automatic mask processing with the mouse, the outer peripheral data is edited. A function to correct the evening may be provided.
上記実施形態では、 デ一夕登録処理は、 コンピュータ 2 0 0内で行う として説明したが、 ネッ トワークを介して直接メガネ販売システム 3 0 0のデータベースサーバ 3 1 0に登録するようにしてもよいことは言う までもない。 In the above embodiment, the overnight registration processing has been described as being performed in the computer 200. However, the registration may be directly performed in the database server 310 of the glasses sales system 300 via a network. Say things Not even.
上記実施形態において、 データ登録処理は、 商品コードや品番等の基 本項目やフレーム情報、 その他の情報は登録者が入力するとして説明し たが、 メガネのレンズ部に貼られたラベルを読み取るラベル読取手段を 設け、 これらの情報の一部または前部が自動入力されるようにしてもよ い。 尚、 ラベルの読取は、 例えばコンピュータ 2 0 0に 0 C R機能また はバーコ一ド読取機能を備え、 メガネに貼りつけられたラベルに表記さ れた文字またはバーコードを読み取るようにすればよい。 また、 レベル 読取手段により読み取られた情報から、 あらかじめ記憶させたフレーム 形状やレンズ形状に関するデータを取出し、 これに基づいてメガネ外周 検出処理やレンズ外周検出処理を行うようにしてもよい。 これにより、 メガネの形状やレンズの形状に応じて検出範囲を絞ったり、 形状に合わ せた境界検出処理が行えるので、 より信頼性の高いマスク自動処理が行 える。 産業上の利用可能性  In the above embodiment, the data registration process is described assuming that the registrant inputs basic items such as a product code and a product number, frame information, and other information. A reading unit may be provided so that a part or the front of the information is automatically input. The label may be read by, for example, providing the computer 200 with a 0 C R function or a bar code reading function to read characters or bar codes written on the label attached to the glasses. Alternatively, data on the frame shape or lens shape stored in advance may be extracted from the information read by the level reading means, and based on the data, the outer circumference detection processing for the glasses and the outer circumference detection processing may be performed. As a result, the detection range can be narrowed according to the shape of the glasses and the shape of the lens, and the boundary detection processing can be performed according to the shape, so that more reliable mask automatic processing can be performed. Industrial applicability
上述したように、 この発明によれば、 メガネの画像を撮影する撮影手 段と、 撮影手段により撮影された画像から人物像と合成するための合成 用画像を生成する合成用画像生成手段と、 合成用画像生成手段により生 成された合成用画像を当該メガネの諸元とともに登録する登録手段とを 備えたので、 何時、 何処で、 誰が行っても、 人物像と合成可能な画像デ —夕を低コス トで迅速に得ることができるという効果がある。  As described above, according to the present invention, a photographing means for photographing an image of glasses, a synthesizing image generating means for generating a synthesizing image for synthesizing a human image from an image photographed by the photographing means, Since there is provided a registration means for registering the composition image generated by the composition image generation means together with the specifications of the glasses, an image data which can be combined with a human image no matter when, where, and by whom. Can be obtained quickly at low cost.

Claims

請 求 の 範 囲 The scope of the claims
1 . メガネの画像を撮影する撮影手段と、 前記撮影手段により撮影され た画像から人物像と合成するための合成用画像を生成する合成用画像生 成手段と、 前記合成用画像生成手段により生成された合成用画像を当該 メガネの諸元とともに登録する登録手段とを備えたことを特徴とする、 メガネ画像登録システム。 1. Photographing means for photographing the images of the glasses, composition image producing means for producing a composition image for composition with a human image from the image photographed by the photography means, and production by the composition image producing means Registering means for registering the synthesized image together with the specifications of the glasses, and a glasses image registration system.
2 . 前記撮影手段は、 開閉式の扉を有し、 撮影するメガネを収容する撮 影ボックスと、 前記撮影ボックスに収容されたメガネを照明する照明手 段と、 前記撮影ボックスに収容されたメガネを撮影してディジタル画像 データを得る撮像手段とを備え、 撮影するメガネを前記撮影ボックスに 収容して、 前記扉を閉じてメガネ画像を撮影することを特徴とする、 請 求項 1に記載のメガネ画像登録システム。  2. The photographing means has an opening / closing door, a photographing box for accommodating glasses for photographing, a lighting means for illuminating the glasses contained in the photographing box, and glasses for accommodating the glasses. Claims 1 characterized by comprising: an image pickup means for obtaining digital image data by photographing an image of a photographer, wherein glasses for photographing are housed in the photographing box, and the door is closed to photograph a glasses image. Glasses image registration system.
3 . 前記撮影手段は、 メガネの正面画像を撮影する正面画像撮影手段を 含むことを特徴とする、 請求項 1 または請求項 2に記載のメガネ画像登 録システム。  3. The glasses image registration system according to claim 1, wherein the photographing unit includes a front image photographing unit that photographs a front image of the glasses.
4 . 前記撮影手段は、 メガネの俯瞰画像を撮影する俯瞰画像撮影手段を 含むことを特徴とする、 請求項 1ないし請求項 3のいずれかに記載のメ ガネ画像登録システム。  4. The Megane image registration system according to any one of claims 1 to 3, wherein the photographing means includes a bird's-eye image photographing means for photographing a bird's-eye image of glasses.
5 . 前記合成用画像生成手段は、 前記撮影されたメガネ画像のフレーム 部分を指定するフレームマスク画像と、 前記撮影されたメガネ画像のレ ンズ部分を指定するレンズマスク画像とを含むマスクを生成するマスク 生成手段を有することを特徴とする、 請求項 1ないし請求項 4のいずれ かに記載のメガネ画像登録システム。 5. The image-for-synthesis generation means includes: a mask for generating a mask including a frame mask image specifying a frame portion of the captured glasses image; and a lens mask image specifying a lens portion of the captured glasses image. The glasses image registration system according to any one of claims 1 to 4, further comprising a generation unit.
6 . 前記マスク生成手段は、 前記撮影されたメガネ画像のメガネの外周 を検出するメガネ外周検出手段と、 前記撮影されたメガネ画像のレンズ の外周を検出するレンズ外周検出手段とを含み、 6. The mask generation unit includes: a pair of spectacles perimeter detecting unit configured to detect a pair of spectacles perimeters of the captured spectacle image; Lens outer circumference detecting means for detecting the outer circumference of
前記メガネ外周検出手段により検出されたメガネの外周と前記レンズ 外周検出手段により検出されたレンズの外周とから前記フレームマスク 画像を生成し、  Generating the frame mask image from the outer circumference of the glasses detected by the outer circumference detecting means of the glasses and the outer circumference of the lens detected by the outer circumference detecting means of the lens;
前記レンズ外周検出手段により検出されたレンズの外周から前記レン ズマスク画像を生成する機能を有することを特徴とする、 請求項 5に記 載のメガネ画像登録システム。  6. The eyeglass image registration system according to claim 5, further comprising a function of generating the lens mask image from an outer periphery of the lens detected by the lens outer periphery detection unit.
7 . 前記メガネ外周検出手段は、 前記撮影されたメガネ画像の背景部か らメガネ部に向ってメガネの境界を検出するメガネ境界検出手段を含み 前記レンズ外周検出手段は、 前記メガネ外周検出手段により検出され たメガネの外周からレンズ部を推定するレンズ部推定手段と、 前記レン ズ部推定手段により推定されたレンズ部からレンズ周辺部に向ってレン ズの境界を検出するレンズ境界検出手段とを含むことを特徴とする、 請 求項 6に記載のメガネ画像登録システム。  7. The spectacles perimeter detecting means includes spectacles boundary detecting means for detecting a boundary of spectacles from a background portion of the photographed spectacles image toward the spectacles portion, wherein the lens perimeter detecting means includes: A lens section estimating section for estimating a lens section from the detected outer periphery of the glasses; and a lens boundary detecting section for detecting a lens boundary from the lens section estimated by the lens section estimating section toward the lens peripheral section. The eyeglass image registration system according to claim 6, wherein the eyeglass image registration system includes:
8 . 前記メガネ外周検出手段は、 前記メガネ境界検出手段により検出さ れたメガネの境界を出発点として近傍のメガネの境界を順次検出して追 跡するメガネ境界追跡手段を含み、  8. The glasses outer circumference detecting means includes glasses boundary tracking means for sequentially detecting and tracking the boundaries of neighboring glasses starting from the glasses boundaries detected by the glasses boundary detecting means,
前記レンズ外周検出手段は、 前記レンズ境界検出手段により検出され たレンズの境界を出発点として近傍のレンズの境界を順次検出して追跡 するレンズ境界追跡手段を含むことを特徴とする、 請求項 7に記載のメ ガネ画像登録システム。  8. The method according to claim 7, wherein the lens outer circumference detecting unit includes a lens boundary tracking unit that sequentially detects and tracks the boundaries of neighboring lenses starting from the lens boundary detected by the lens boundary detecting unit. Megane image registration system described in.
9 . 前記メガネ外周検出手段は、 前記検出されたメガネの外周の欠損部 を補間するメガネ外周補間手段を含み、  9. The glasses outer circumference detecting means includes glasses outer circumference interpolating means for interpolating a missing portion of the detected outer circumference of the glasses,
前記レンズ外周検出手段は、 前記検出されたレンズの外周の欠損部を 補間するレンズ外周補間手段を含むことを特徴とする、 請求項 6ないし 請求項 8のいずれかに記載のメガネ画像登録システム。 The lens outer circumference detecting means includes a lens outer circumference interpolating means for interpolating a defective part of the detected outer circumference of the lens, wherein 9. The glasses image registration system according to claim 8.
1 0 . 前記メガネ外周検出手段は、 前記検出されたメガネの外周の不正 な突起部を除去するメガネ外周不正突起除去手段を含み、  10. The spectacles periphery detecting means includes spectacles periphery irregular protrusion removing means for removing the detected irregular protrusions on the periphery of the spectacles,
前記レンズ外周検出手段は、 前記検出されたレンズの外周の不正な突 起部を除去するレンズ外周不正突起除去手段を含むことを特徴とする、 請求項 6ないし請求項 9のいずれかに記載のメガネ画像登録システム。 10. The lens outer periphery detecting unit according to claim 6, wherein the detected lens outer periphery detecting unit includes a lens outer periphery irregular protrusion removing unit that removes an illegal protrusion on the detected outer periphery of the lens. Glasses image registration system.
1 1 . 前記マスク生成手段は、 メガネの機種情報を取得するメガネ機種 情報取得手段を含み、 1 1. The mask generation means includes glasses type information obtaining means for obtaining glasses type information,
前記メガネ外周検出手段およびノまたは前記レンズ外周検出手段は、 前記メガネ機種情報取得手段により取得されたメガネの機種情報を活用 してメガネの外周および またはレンズの外周を検出する機能を有する ことを特徴とする、 請求項 6ないし請求項 1 0のいずれかに記載のメガ ネ画像登録システム。  The eyeglass outer circumference detecting means and the lens outer circumference detecting means have a function of detecting the outer circumference of the eyeglasses and / or the outer circumference of the lens by utilizing the model information of the eyeglasses obtained by the eyeglass model information obtaining means. The megane image registration system according to any one of claims 6 to 10.
1 2 . 前記マスク生成手段は、 前記生成されたフレームマスク画像およ び または前記生成されたレンズマスク画像について、 左右の画像を比 較して補正する左右比較補正手段を含むことを特徴とする、 請求項 5な いし請求項 1 1のいずれかに記載のメガネ画像登録システム。  12. The mask generation unit includes a left and right comparison correction unit that compares and corrects left and right images of the generated frame mask image and / or the generated lens mask image. The glasses image registration system according to any one of claims 5 to 11.
1 3 . 前記マスク生成手段は、 ポインティ ングデバイスにより指定され たボイントデータからマスクを編集するマスク手動編集手段を含むこと を特徴とする、 請求項 5ないし請求項 1 2のいずれかに記載のメガネ画 像登録システム。  13. The glasses according to claim 5, wherein the mask generating unit includes a mask manual editing unit that edits a mask from point data specified by a pointing device. 14. Image registration system.
1 4 . 前記合成用画像生成手段は、 あらかじめ登録された人物像と前記 撮影されたメガネ画像を合成して表示する合成表示手段を含むことを特 徵とする、 請求項 1ないし請求項 1 3のいずれかに記載のメガネ画像登 録システム。  14. The image generation means for synthesis includes a synthesis display means for synthesizing and displaying a pre-registered human image and the taken glasses image, and the composition display means is characterized in that: The glasses image registration system according to any of the above.
1 5 . 前記合成表示手段は、 人物像と合成するメガネ画像のレンズの色 と透過率を指定する機能を有することを特徴とする、 請求項 1 4に記載 のメガネ画像登録システム。 15. The combination display means includes a lens color of a glasses image to be combined with a human image. The eyeglasses image registration system according to claim 14, further comprising a function of designating a transmittance and a transmittance.
1 6 . 前記合成表示手段は、 人物像に合成するメガネ画像の位置を調節 する機能を有することを特徴とする、 請求項 1 4または請求項 1 5に記 載のメガネ画像登録システム。  16. The glasses image registration system according to claim 14, wherein the combination display unit has a function of adjusting a position of a glasses image to be combined with a human image. 16.
1 7 . 前記登録手段は、 前記撮影されたメガネのレンズ部に設けられた ラベルを読み取るラベル読取手段を備えたことを特徵とする、 請求項 1 ないし請求項 1 6のいずれかに記載のメガネ画像登録システム。  17. The glasses according to any one of claims 1 to 16, wherein the registration unit includes a label reading unit that reads a label provided on a lens unit of the captured glasses. Image registration system.
1 8 . 前記登録手段により登録されたデータをメガネ販売システムに送 信する通信手段を備えたことを特徴とする、 請求項 1ないし請求項 1 7 のいずれかに記載のメガネ画像登録システム。  18. The glasses image registration system according to any one of claims 1 to 17, further comprising a communication unit that transmits data registered by the registration unit to the glasses sales system.
1 9 . メガネの画像を撮影するステップと、 前記撮影された画像から人 物像と合成するための合成用画像を生成するステツプと、 前記生成され た合成用画像を当該メガネの諸元とともに登録するステップとを備えた ことを特徴とする、 メガネ画像登録方法。  1 9. A step of taking an image of the glasses, a step of generating a combining image for combining with the human image from the taken image, and registering the generated combining image together with the specifications of the glasses. A method of registering eyeglass images.
2 0 . 前記合成用画像を生成するステップは、 前記撮影されたメガネの フレーム部分を指定するフレームマスク画像と、 前記撮影されたメガネ のレンズ部分を指定するレンズマスク画像とを含むマスクを生成するス テツプを有することを特徴とする、 請求項 1 9に記載のメガネ画像登録 方法。  20. The step of generating the image for synthesis includes a step of generating a mask including a frame mask image specifying a frame portion of the captured glasses and a lens mask image specifying a lens portion of the captured glasses. The eyeglasses image registration method according to claim 19, comprising a step.
2 1 . 前記マスクを生成するステップは、 前記撮影されたメガネ画像の メガネの外周を検出するステップと、 前記撮影されたメガネ画像のレン ズの外周を検出するステツプと、 前記検出されたメガネの外周と前記検 出されたレンズの外周とから前記フレームマスク画像を生成するステツ プと、 前記検出されたレンズの外周から前記レンズマスク画像を生成す るステップとを含むことを特徴とする、 請求項 2 0に記載のメガネ画像 登録方法。 21. The step of generating the mask includes the steps of: detecting an outer circumference of the glasses of the captured glasses image; detecting an outer circumference of the lenses of the captured glasses image; A step of generating the frame mask image from an outer periphery and the detected outer periphery of the lens; and a step of generating the lens mask image from the detected outer periphery of the lens. Glasses image described in 20 Registration method.
2 2 . 前記メガネの外周を検出するステップは、 前記撮影されたメガネ 画像の背景部からメガネ部に向ってメガネの境界を検出するステツプを 含み、  22. The step of detecting the outer periphery of the glasses includes a step of detecting a boundary of the glasses from a background portion of the captured glasses image toward the glasses portion.
前記レンズの外周を検出するステップは、 前記メガネの外周を検出す るステツプにより検出されたメガネの外周からレンズ部を推定するステ ップと、 前記推定されたレンズ部からレンズ周辺部に向ってレンズの境 界を検出するステップとを含むことを特徴とする、 請求項 2 1に記載の メガネ画像登録方法。  Detecting the outer circumference of the lens includes: estimating a lens portion from the outer circumference of the glasses detected by the step of detecting the outer circumference of the glasses; and 22. The eyeglass image registration method according to claim 21, further comprising: detecting a boundary of the lens.
2 3 . 前記メガネの外周を検出するステップは、 前記メガネの境界を検 出するステツプにより検出された境界を出発点として近傍のメガネの境 界を順次検出して追跡するステツプを含み、 23. The step of detecting the outer periphery of the glasses includes a step of sequentially detecting and tracking the boundaries of neighboring glasses starting from the boundaries detected by the steps of detecting the boundaries of the glasses,
前記レンズの外周を検出するステップは、 前記レンズの境界を検出す るステツプにより検出された境界を出発点として近傍のレンズの境界を 順次検出して追跡するステップを含むことを特徴とする、 請求項 2 2に 記載のメガネ画像登録方法。  The step of detecting the outer circumference of the lens includes the step of sequentially detecting and tracking the boundary of a nearby lens starting from the boundary detected by the step of detecting the boundary of the lens. The glasses image registration method described in Item 22.
2 4 . 前記メガネの外周を検出するステップは、 前記検出されたメガネ の外周の欠損部を補間するステツプを含み、  24. The step of detecting the outer circumference of the glasses includes a step of interpolating a defective portion of the outer circumference of the detected glasses,
前記レンズの外周を検出するステップは、 前記検出されたレンズの外 周の欠損部を補間するステップを含むことを特徴とする、 請求項 2 1な いし請求項 2 3のいずれかに記載のメガネ画像登録方法。  The glasses according to any one of claims 21 to 23, wherein the step of detecting the outer periphery of the lens includes a step of interpolating a defective portion of the detected outer periphery of the lens. Image registration method.
2 5 . 前記メガネの外周を検出するステップは、 前記検出されたメガネ の外周の不正な突起部を除去するステツプを含み、  25. The step of detecting the outer periphery of the glasses includes a step of removing an illegal projection on the outer periphery of the detected glasses.
前記レンズの外周を検出するステツプは、 前記検出されたレンズの外 周の不正な突起部を除去するステップを含むことを特徴とする、 請求項 The step of detecting the outer periphery of the lens includes a step of removing an illegal projection on the outer periphery of the detected lens.
2 1ないし請求項 2 4のいずれかに記載のメガネ画像登録方法。 21. The eyeglass image registration method according to any one of claims 21 to 24.
2 6 . 前記マスクを生成するステップは、 メガネの機種情報を取得する ステツプを含み、 26. The step of generating the mask includes a step of acquiring model information of glasses.
前記メガネの外周を検出するステツプおよび/または前記レンズの外 周を検出するステップは、 前記取得されたメガネの機種情報を活用して メガネの外周および またはレンズの外周を検出するステップを含むこ とを特徴とする、 請求項 2 1ないし請求項 2 5のいずれかに記載のメガ ネ画像登録システム。  The step of detecting the outer circumference of the glasses and / or the step of detecting the outer circumference of the lens includes the step of detecting the outer circumference of the glasses and / or the outer circumference of the lens using the acquired model information of the glasses. 26. The megane image registration system according to claim 21, characterized in that:
2 7 . 前記マスクを生成するステップは、 前記生成されたフレームマス ク画像および または前記生成されたレンズマスク画像について、 左右 の画像を比較して補正するステップを含むことを特徴とする、 請求項 2 0ないし請求項 2 6のいずれかに記載のメガネ画像登録方法。  27. The step of generating the mask includes a step of comparing and correcting left and right images of the generated frame mask image and / or the generated lens mask image. An eyeglass image registration method according to any one of claims 20 to 26.
2 8 . 前記マスクを生成するステップは、 ポインティ ングデバイスによ り指定されたポイントデータからマスクを編集するステップを含むこと を特徴とする、 請求項 2 0ないし請求項 2 7のいずれかに記載のメガネ 画像登録方法。 28. The method according to any one of claims 20 to 27, wherein the step of generating the mask includes a step of editing the mask from point data specified by a pointing device. Glasses image registration method.
2 9 . 前記合成用画像を生成するステップは、 あらかじめ登録された人 物像と前記撮影されたメガネ画像を合成して表示するステツプを含むこ とを特徴とする、 請求項 1 9ないし請求項 2 8のいずれかに記載のメガ ネ画像登録方法。  29. The method according to claim 19, wherein the step of generating the image for combination includes a step of combining and displaying a pre-registered human image and the captured glasses image. 28 The method for registering a magne image described in any of 8 above
3 0 . 前記表示するステップは、 人物像に合成するメガネ画像のレンズ の色と透過率を指定するステツプを有することを特徴とする、 請求項 2 9に記載のメガネ画像登録方法。 30. The eyeglasses image registration method according to claim 29, wherein the displaying step includes a step of designating a color and a transmittance of a lens of the eyeglasses image to be combined with the human image.
3 1 . 前記表示するステップは、 人物像に合成するメガネ画像の位置を 調節するステップを有することを特徴とする、 請求項 2 9または請求項 3 0に記載のメガネ画像登録方法。  31. The eyeglasses image registration method according to claim 29, wherein the displaying includes adjusting a position of the eyeglasses image to be combined with the human image.
3 2 . 前記登録するステップは、 前記撮影されたメガネのレンズ部に設 けられたラベルを読み取るステップを備えたことを特徴とする、 請求項 1 9ないし請求項 3 1 のいずれかに記載のメガネ画像登録方法。 3 2. The step of registering is set in a lens portion of the glasses that have been photographed. 31. The eyeglasses image registration method according to claim 19, further comprising a step of reading an applied label.
3 3 . 前記登録するステップにより登録されたデータをメガネ販売シス テムに送信するステップを備えたことを特徴とする、 請求項 1 9ないし 請求項 3 2のいずれかに記載のメガネ画像登録方法。 33. The glasses image registration method according to any one of claims 19 to 32, further comprising a step of transmitting data registered in the registration step to a glasses sales system.
PCT/JP2003/002892 2002-03-13 2003-03-12 System and method for registering spectacles image WO2003077198A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU2003213324A AU2003213324A1 (en) 2002-03-13 2003-03-12 System and method for registering spectacles image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-068528 2002-03-13
JP2002068528A JP3598296B2 (en) 2002-03-13 2002-03-13 Glasses image registration system and glasses image registration method

Publications (1)

Publication Number Publication Date
WO2003077198A1 true WO2003077198A1 (en) 2003-09-18

Family

ID=27800299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/002892 WO2003077198A1 (en) 2002-03-13 2003-03-12 System and method for registering spectacles image

Country Status (4)

Country Link
JP (1) JP3598296B2 (en)
AU (1) AU2003213324A1 (en)
TW (1) TWI230835B (en)
WO (1) WO2003077198A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110460840A (en) * 2019-09-23 2019-11-15 上海工程技术大学 Lens boundary detection method based on three-dimensional dense network

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3053509B1 (en) * 2016-06-30 2019-08-16 Fittingbox METHOD FOR OCCULATING AN OBJECT IN AN IMAGE OR A VIDEO AND ASSOCIATED AUGMENTED REALITY METHOD

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6339290A (en) * 1986-08-04 1988-02-19 Meruto:Kk Picture composing and reproducing device
JPS63172220A (en) * 1987-01-12 1988-07-15 Hoya Corp Method for forming spectacle frame data in simulation device for putting on spectacles
JPH0792651A (en) * 1993-09-24 1995-04-07 Konica Corp Picture clipping device
WO1998052092A1 (en) * 1997-05-16 1998-11-19 Hoya Corporation System for making spectacles to order
JPH10320434A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and system for supporting production of spectacles
JPH11338905A (en) * 1998-05-27 1999-12-10 Hoya Corp Composited image preparation method in spectacle wearing simulation
JPH11353353A (en) * 1998-06-03 1999-12-24 Fine System Kikaku Kk Selection supporting system for glasses

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6339290A (en) * 1986-08-04 1988-02-19 Meruto:Kk Picture composing and reproducing device
JPS63172220A (en) * 1987-01-12 1988-07-15 Hoya Corp Method for forming spectacle frame data in simulation device for putting on spectacles
JPH0792651A (en) * 1993-09-24 1995-04-07 Konica Corp Picture clipping device
WO1998052092A1 (en) * 1997-05-16 1998-11-19 Hoya Corporation System for making spectacles to order
JPH10320434A (en) * 1997-05-16 1998-12-04 Nippon Telegr & Teleph Corp <Ntt> Method and system for supporting production of spectacles
JPH11338905A (en) * 1998-05-27 1999-12-10 Hoya Corp Composited image preparation method in spectacle wearing simulation
JPH11353353A (en) * 1998-06-03 1999-12-24 Fine System Kikaku Kk Selection supporting system for glasses

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110460840A (en) * 2019-09-23 2019-11-15 上海工程技术大学 Lens boundary detection method based on three-dimensional dense network
CN110460840B (en) * 2019-09-23 2020-06-26 上海工程技术大学 Shot boundary detection method based on three-dimensional dense network

Also Published As

Publication number Publication date
TW200410037A (en) 2004-06-16
JP3598296B2 (en) 2004-12-08
AU2003213324A1 (en) 2003-09-22
TWI230835B (en) 2005-04-11
JP2003271946A (en) 2003-09-26

Similar Documents

Publication Publication Date Title
CN109983501B (en) Method for hiding object in image or video and related augmented reality method
US8730356B2 (en) System and method for automatic flash removal from images
US20190102872A1 (en) Glare Reduction in Captured Images
JP4220470B2 (en) A reality-based lighting environment for digital imaging in cinema
US10573067B1 (en) Digital 3D model rendering based on actual lighting conditions in a real environment
US9916681B2 (en) Method and apparatus for selectively integrating sensory content
WO2022179026A1 (en) Image processing method and apparatus, electronic device, and storage medium
JP6531823B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
EP3520390B1 (en) Recolorization of infrared image streams
US20190172238A1 (en) Intelligent camera
US20090028432A1 (en) Segmentation of Video Sequences
US20060078224A1 (en) Image combination device, image combination method, image combination program, and recording medium containing the image combination program
US20120069180A1 (en) Information presentation apparatus
CN101311962A (en) Image editing apparatus and method for controlling image editing apparatus
CN108810406A (en) Portrait light efficiency processing method, device, terminal and computer readable storage medium
CN107493427A (en) Focusing method, device and the mobile terminal of mobile terminal
CN109495731A (en) Auto white balance method is used for by what image-signal processor executed
CN106803920A (en) A kind of method of image procossing, device and intelligent meeting terminal
US20130278626A1 (en) Systems and methods for simulating accessory display on a subject
WO2003077198A1 (en) System and method for registering spectacles image
CN109300186A (en) Image processing method and device, storage medium, electronic equipment
TW202139120A (en) Glasses, recommended cosmetics presentation control system, and recommended cosmetics presentation control method
JP2003230036A (en) Eyeglasses image imaging apparatus
JP7304484B2 (en) Portrait Relighting Using Infrared Light
Kale et al. Estimating the position of illuminants in paintings under weak model assumptions: An application to the works of two Baroque masters

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase