WO2004107766A1 - 映像受信装置および映像再生装置 - Google Patents

映像受信装置および映像再生装置 Download PDF

Info

Publication number
WO2004107766A1
WO2004107766A1 PCT/JP2004/007800 JP2004007800W WO2004107766A1 WO 2004107766 A1 WO2004107766 A1 WO 2004107766A1 JP 2004007800 W JP2004007800 W JP 2004007800W WO 2004107766 A1 WO2004107766 A1 WO 2004107766A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information
data
unit
video data
Prior art date
Application number
PCT/JP2004/007800
Other languages
English (en)
French (fr)
Inventor
Motohiro Ito
Kazuto Ohara
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to EP04735404A priority Critical patent/EP1633148A4/en
Priority to US10/557,816 priority patent/US20060269226A1/en
Publication of WO2004107766A1 publication Critical patent/WO2004107766A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the present invention relates to a video receiving apparatus for capturing 3D video using binocular parallax, receiving video data transmitted via a communication channel, and displaying the 3D video, and capturing a 3D video using binocular parallax.
  • the present invention relates to a video reproducing apparatus for reading video data recorded on a recording medium and displaying the video data three-dimensionally.
  • FIG. 2OA to FIG. 20C are diagrams for explaining captured images when a stereo adapter is attached.
  • Fig. 2 OA is a video taken without a stereo adapter attached
  • Fig. 20B is a video taken with a stereo adapter with a 1/2 angle of view
  • Fig. 20C is This shows an image shot with a stereo adapter of a type that narrows the shooting range without changing the angle of view.
  • a stereo adapter is attached, the left-eye image is displayed on the left side of the screen, and the right-eye image is displayed on the right side.
  • the video captured in this way can be stereoscopically viewed by viewing the left-eye video only with the left eye and the right-eye video only with the right eye.
  • FIG. 21A and FIG. 21B are diagrams for explaining the parallax barrier method, which is one of the typical methods for achieving stereoscopic vision using binocular parallax.
  • FIG. 21A is a diagram illustrating the principle of generating parallax.
  • FIG. 21B is a diagram showing a display format of a screen displayed by the paralux variation method, in which a left-eye image and a right-eye image are displayed. The pixels are arranged alternately every other pixel in the horizontal direction.
  • FIG. 21A an image as shown in FIG. 21B is displayed on the image display panel 601, and a parallax barrier 602 having slits at intervals smaller than the interval between pixels at the same viewpoint is displayed on the image display panel 601.
  • a parallax barrier 602 having slits at intervals smaller than the interval between pixels at the same viewpoint is displayed on the image display panel 601.
  • the left-eye image and right-eye image are alternately arranged every other pixel in the horizontal direction. Just fine.
  • the left-eye image and the right-eye image are each thinned out to 1/2 in the horizontal direction and It is necessary to alternately arrange every pixel.
  • the shooting device and the playback device have a one-to-one correspondence.However, in order to exchange video between different devices, the shooting conditions and playback conditions need to match. There is a problem that the property is greatly impaired.
  • the present invention has been made in view of the above problems, and is configured to include additional information for giving versatility to video data during stereo shooting while maintaining compatibility with existing devices. It is an object of the present invention to provide a video reproducing apparatus and a video receiving apparatus which can easily view the video data.
  • a video receiving apparatus including a receiving unit that receives video data in a predetermined format and accompanying information of the video data from a communication path, A detection unit that detects additional information for displaying 3D from the accompanying information, and generates a signal for displaying the video data in 3D when the detection unit detects the additional information.
  • a video reproducing apparatus provided with a reading section for reading video data recorded on a recording medium and accompanying information of the video data, the additional information for displaying the video data three-dimensionally. And a signal for displaying video data three-dimensionally when additional information is detected by the detection unit.
  • the present invention creates classification information in which video data is classified into a three-dimensional video to which the additional information is added and a two-dimensional video other than the video data according to the presence or absence of the additional information. Also, preferably, the present invention reproduces the video data selected based on the classification information.
  • the present invention further includes a recording unit that records the video data selected based on the classification information on a recording medium.
  • the present invention further includes a recording unit that records the classification information on a recording medium.
  • FIG. 1 is a diagram illustrating a configuration example of a video recording device according to a first embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of the additional information according to the present invention.
  • FIG. 3 is a diagram showing an example of a track configuration of a magnetic tape.
  • FIG. 4 is a diagram showing the format of a track on a magnetic tape.
  • FIG. 5 is a diagram showing a format of a video recording area in a track format of a magnetic tape.
  • FIG. 6 is a diagram showing an example of a recording format of video data in a file according to the present invention.
  • FIG. 7 is a diagram showing a configuration example of a video reproduction system according to the second embodiment of the present invention.
  • FIG. 8 is a diagram illustrating a configuration example of a video transmission device according to the second embodiment of the present invention.
  • FIG. 9 is a diagram illustrating a configuration example of a packet.
  • FIG. 10 is a diagram showing the transmission order of data blocks in the DV format.
  • FIG. 11 is a diagram showing a configuration example of a video receiving device according to the second embodiment of the present invention.
  • FIG. 12 is a diagram showing an example of the additional information according to the present invention.
  • FIGS. 13A and 13B are diagrams showing examples of three-dimensional display.
  • FIG. 14 is a diagram for explaining the principle of the protrusion amount adjustment.
  • 'FIGS. 15A and 15B are diagrams for explaining changes in the image format when the pop-out amount is adjusted.
  • FIG. 16A to FIG. 16C are diagrams for explaining a display method at the time of adjusting the pop-out amount.
  • FIG. 17A and FIG. 17B are diagrams for explaining the adjustment of the vertical position.
  • FIG. 18 shows one of the elements required for high-speed search in 3D information in the present invention. It is a figure showing an example.
  • FIG. 19 is a diagram showing an example of the classification information according to the present invention.
  • FIG. 2OA to FIG. 20C are diagrams for explaining a shooting screen when a stereo adapter is attached.
  • FIG. 21A and FIG. 21B are diagrams for explaining the principle of the parallax barrier method. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram showing a configuration of a video recording device 100 according to the first embodiment of the present invention.
  • video recording apparatus 100 records a video image of a subject on recording medium 2000, and reproduces the video recorded on recording medium 200. Therefore, the video recording device 100 also functions as a video playback device.
  • the video recording device 100 has a function selection unit 101 for selectively switching between monocular and stereo shooting functions, and an imaging device equipped with an image sensor such as a CCD (Charge Coupled Device) and an autofocus circuit.
  • Unit 102 a 3D information generating unit 103 that generates three-dimensional information of a predetermined format (hereinafter referred to as “3D information”), and formats and records video data and 3D information.
  • a data recording unit 104 for recording on the medium 200.
  • the video recording device 100 further includes a data reading unit 106 for reading recording data from the recording medium 200, a video conversion unit 107 for converting video data into a display format, and 3D information.
  • a control unit 105 that controls the video conversion unit 107 based on the image data and a display unit 108 including a three-dimensional display device such as a parallax barrier method are provided.
  • a left-eye image and a right-eye image are respectively displayed on two divided screens.
  • the description below assumes that a stereo adapter of a type that is taken in a state reduced by 1/2 in the horizontal direction is used.
  • the present invention is not limited to this, and other types of stereo adapters and 2 An ophthalmic camera may be used.
  • the photographer operates the function selection unit 101 before starting shooting to select a shooting operation.
  • a normal shooting operation is performed.
  • a stereo adapter is attached to the imaging unit 102, and a stereo shooting operation is selected.
  • the function selection unit 101 notifies the 3D information generation unit 103 of the selected shooting operation using a function selection signal.
  • the data recording unit 104 records the video data input by the imaging unit 102 on the recording medium 200 in a predetermined format.
  • those data are also multiplexed by the data recording unit 104.
  • the display unit 108 reads out and displays the video data input to the data recording unit 104 by the imaging unit 102. The photographer can take a picture while checking the recorded content on the video displayed on the display unit 108.
  • the 3D information generating unit 103 generates 3D information used for three-dimensional display from parameters relating to characteristics of the stereo adapter such as the angle of view. Since these parameters are unique to the stereo adapter, it is assumed that the parameters are set in advance by the photographer or the like and stored in the 3D information generation unit 103.
  • FIG. 2 is a diagram showing an example of the 3D information at this time.
  • the 3D information shown in FIG. 2 indicates the data format of the video in FIG. 20B. That is, the number of viewpoints in the horizontal direction is “2” and the number of viewpoints in the vertical direction is “1”, indicating that there are two left and right viewpoint images.
  • the image arrangement is “horizontal arrangement”, This shows that two images are combined in the horizontal direction. Also, the reduction in the horizontal direction is “Yes”, which means that the horizontal , Indicating that the subsequent reduction ratio has been reduced to 1/2. No reduction ratio is specified because it is not reduced vertically.
  • the 2D video shows the viewpoint to be selected when performing the two-dimensional display. Here, the left-eye video is specified.
  • the 3D information start data is fixed value data indicating the start of 3D information
  • the version information is for indicating compatibility of the 3D information.
  • the 3D information generated as described above is output to the data recording unit 104 as a part of information accompanying video data.
  • the data recording unit 104 records the 3D information input from the 3D information generation unit 103 and the video data input from the imaging unit 102 on a recording medium 200 according to a predetermined format.
  • I is used as a recording medium for recording recording data.
  • a memory, a magneto-optical disk, a magnetic tape, a hard disk, and the like are used. Here, the case where a magnetic tape is used will be described.
  • a method called a helical scan is widely used as a recording method on a magnetic tape.
  • data is recorded on tracks 300 formed discontinuously on a magnetic tape.
  • FIG. 4 is an enlarged view of one of the tracks 300 and shows an example of the track format.
  • a track 300 includes an ITI (Insert and Track Information) area 301 for ensuring post-recording, an audio recording area 302 for recording data relating to audio, and data relating to video. It includes a video recording area 303 to be recorded and a subcode recording area 304 to record accompanying information such as a track number and a time code.
  • ITI Insert and Track Information
  • FIGS. 5 and 5 are enlarged views of the video recording area 303 shown in FIG.
  • the video recording area 303 includes a preamble 401 in which a synchronization pattern and the like are recorded, and areas VAUX (Video AUXiliary data) a 402 and VAUX / 3304, in which auxiliary information relating to the video is recorded. It includes a video coded data recording area 403 in which video coded data is recorded, an error correction code 405, and a post-amplifier 406 having a function for increasing a margin.
  • the area where the accompanying information about the video is recorded is the area VAUX «402 and the region VAU X] 3 404 are divided into two, and hereafter, these two are collectively called a VAU X region.
  • an AAU X (Audio AUXiliary data) area is also prepared in the audio recording area 302 as an area for recording accompanying information on audio.
  • the 3D information is recorded in one of the VAU X area, AAU X area, and supcode area. In the present embodiment, the case of recording in the VAU X area will be described.
  • the data recording unit 104 divides the input video data into a plurality of tracks and records the data. After the video data is encoded by a predetermined method, it is arranged in the video encoded data recording area 403.
  • the 3D information is converted into a bit string by fixed-length coding or variable-length coding, and placed in the VAU X area together with other accompanying information. Since the data amount of the 3D information is sufficiently smaller than the size of the VAU X area, the data is recorded on each of a plurality of tracks for recording data of one frame of video. In this case, the tracks may be always arranged in VAUXa402 or may be alternately arranged in VAUX ⁇ 402 and VAUX] 3404 for each track. If it does not fit in the VAU X area, including other accompanying information, it may be divided into multiple tracks and recorded.
  • a preamble 410, an error correction code 405, and a postamble 406 are added to the data to create data for a video recording area for one track, and the data for an audio recording area created in the same manner.
  • the recording data is further output by adding the ITI information 301 and a margin between the areas.
  • the 3D information may be divided into a VAU X area, an AAU X area, and a subcode area and recorded. Further, some digital VTRs have a cassette memory for recording accompanying information, and the above-mentioned 3D information may be recorded in the cassette memory.
  • a data reading unit 106 reads recorded data from a track 300 of a magnetic tape, divides the data into audio data, video data, and subcode in the order of reading from the track 300, and performs error correction on each.
  • the video coded data read from the video coded data recording area
  • the decoded video data is output to the video conversion unit 107.
  • the 3D information start marker is searched from the accompanying information read from the VAU X area, and the 3D information is extracted and output to the control unit 105.
  • the control unit 105 refers to the purge information in the 3D information input from the data read unit 106 and determines whether or not the following items can be interpreted. If the item of 3D information can be interpreted, control information is determined from the interpreted 3D information and output to the video conversion unit 107. If there is no 3D information, control information for performing two-dimensional display is output to the video conversion unit 107.
  • the control unit 105 outputs control information to the video conversion unit 107 so that the video data is rearranged every other pixel in the horizontal direction and converted to a format adapted to the display unit 108. I do.
  • the two-dimensional display and the three-dimensional display may be manually switched as needed.
  • control information is output to the video conversion unit 107 so that the video of the viewpoint specified by the 2D video of the 3D information is displayed. If the 3D information does not exist, control information is output to the video conversion unit 107 so that the video data input from the data reading unit 106 is output as it is.
  • the 3D information is recorded in the recording area of the accompanying information of the video data so that it can be distinguished from other accompanying information, so that playback is performed while maintaining compatibility with existing equipment. It is possible to convert the display format suitable for the display device on the device side, and it is possible to easily make the recorded video versatile.
  • a magnetic tape is used as a recording medium.
  • video data is recorded using a recording medium such as an IC memory, a magneto-optical disk, or a hard disk in which a file system is constructed. May be recorded as a file.
  • the 3D information may be recorded in a file header of the video file, or may be recorded in a file different from the video data.
  • Figure 6 shows the file format when recording 3D information in a file header of a video file. It is a figure showing an example of a formula.
  • Fig. 6 it is assumed that data is recorded in files in order from the top to the bottom of the figure.
  • the 3D information is recorded as a part of the existing header section using a mechanism for expanding the header section prepared in the conventional file format.
  • the extended header is called an extension header.
  • MPEG-4 Moving Picture Experts Group-4
  • the file header points to Visual Object Sequence or f // and Video Object Layer
  • 3D information is recorded as user data in these.
  • JPEG Joint Photographic Experts Group
  • the file header points to the application data segment
  • the force S and the function selection unit 101 are used to record the data format of the video data recorded on the recording medium 200 during the stereo photography operation so as to match the format of the photographed video.
  • the photographer may be able to select a desired data format.
  • parameters relating to the data format of the video data are sent to the 3D information generating unit 103, and the 3D information generating unit 103 generates 3D information based on the input parameters.
  • the data recording unit 104 changes the format of the video data input from the imaging unit 102 based on the 3D information input from the 3D information generation unit 103.
  • the display unit 108 reads out the video data captured by the imaging unit 102 from the data recording unit 104 and displays the video data.
  • the left-eye image and the right-eye image are reduced by 12 in the horizontal direction on the split screen, as shown in Fig. 20B.
  • the recording data output from the data recording unit 104 may be directly input to the data reading unit 106 to reproduce the recording data.
  • the data storage unit 104 The recording data recorded in 200 may be immediately read and reproduced. By doing so, it is possible to display the 3D video during stereo shooting and check the contents in the same way as when playing back from a recording medium.
  • the present invention can also be applied to a video transmission device that transmits recording data to a communication path.
  • a video transmission apparatus 140 for transmitting video data and a video reception apparatus 150 for receiving video data are connected by a transmission path 160, and the video data is transmitted via the transmission path 160.
  • This is a video playback system that exchanges commands for controlling the device to which the power is connected.
  • FIG. 8 is a block diagram illustrating a configuration example of the video transmission device 140.
  • the video transmission device 140 includes a function selection unit 101, an imaging unit 102, a 3D information generation unit 103, a data recording unit 141, a control unit 105, and data. It includes a reading section 144, a video converting section 107, a display section 108, a transmitting section 144, a receiving section 144, and a recording medium 200.
  • the operation of the video transmitting device 140 configured as described above will be described below.
  • the operation from the start of shooting until the recording data is recorded on the recording medium 200 is the same as that of the first embodiment described above. Description is omitted.
  • the data recording unit 141 records multiplexed data obtained by multiplexing video data and 3D information according to a predetermined recording format on a recording medium 200, and also transmits the multiplexed data to the transmission unit 144. Output to Alternatively, the data readout unit 142 reads out the multiplexed data recorded on the recording medium 200 and outputs it to the transmission unit 144.
  • the transmitting unit 144 stores the data input from the data recording unit 141 or the data reading unit 142 in a bucket of a format specified by a predetermined communication protocol, and transmits the data to the transmission line 160. .
  • IEEE 1394 Institute of Electrical and Electrical
  • USB Universal Serial Bus
  • asynchronous communication method When video data is transmitted in real time, a guaranteed bandwidth can be secured in advance. Use the isochronous communication method.
  • FIG. 9 is a diagram showing a packet format in the isochronous communication system of the IEEE 1394 standard.
  • a packet 600 includes a packet header 601, a header CRC 602 which is a CRC (Cyclic Redundancy Check) for the packet header 601, a data field 603 which is an area for storing data to be transmitted, and Data CRC 604, which is a CRC for the data field.
  • CRC Cyclic Redundancy Check
  • the data field is composed of data 632 which is data to be transmitted and a CIP (Common Isochronous Packet) header 631 indicating an attribute of the data 632.
  • the CIP header 631 records the size of the data 632, time information for synchronization, and the like.
  • track data as shown in FIG. 4 is input from the data recording unit 141 or the data reading unit 142 to the transmission unit 143 together with the track synchronization signal.
  • the transmission unit 143 divides the input track data into 80-byte data blocks (3 bytes are used for ID).
  • FIG. 10 is a diagram showing the transmission order of the divided data blocks.
  • the recorded data of 3 is shown in the block Am (m is an integer from 0 to 8).
  • a data block obtained by dividing the recording data of the voice recording area 302 is shown.
  • the numbers above the data tab indicate the transmission order.
  • the transmission unit 144 stores six data blocks in one packet so that the transmission order is as shown in FIG. 10, and transmits the packet to the communication channel 160. Therefore, 25 packets are transmitted per track.
  • 3D information is stored in the VAU X area as described above, the 3D information is transmitted by the first bucket in each track.
  • information indicating whether 3D information is included in the transmitted packet may be added to the packet header and transmitted.
  • information indicating whether or not 3D information is included may be recorded in the extension area of the CIP header 631 shown in FIG.
  • FIG. 11 is a block diagram showing a configuration example of the video receiving device 150.
  • the video receiving device 150 includes a receiving unit 151 that receives data via a communication channel 160, and a data separating unit 152 that separates multiplexed data. , A control unit 153 that outputs the presence or absence of 3D information in the received data and control information, a video decoding unit 154 that decodes encoded video data, and a video that converts the data format of the video data It includes a conversion unit 155, a display unit 156 that can switch between two display modes of three-dimensional display and two-dimensional display, and a transmission unit 158.
  • the receiving unit 151 receives the packetized received data from the communication channel 160, extracts the data 632 shown in FIG. 9 except for the packet header, etc., and sends it to the data separating unit 152. Output to In addition, information on whether or not 3D information is included in the packet is read from the header portion of the packet, and the presence or absence of 3D information (takes one of “Yes”, “No” and “Indefinite”) Is output to the data separation unit 152.
  • the data separation unit 152 separates video data from the multiplexed data input from the reception unit 151 and outputs the video data to the video decoding unit 154. If the presence or absence of the 3D information indicates “Yes”, the 3D information is separated from the multiplexed data and output to the control unit 1553. If the presence / absence of 3D information indicates “undefined”, the 3D information start code is searched from the multiplexed data input from the receiving unit 151, and the 3D information is included in the multiplexed data. Is determined. If there is 3D information, data of a predetermined number of bytes after the 3D information start code is extracted as 3D information.
  • the receiving unit 151 receives the data for one track, and then, as shown in FIG.
  • the track data is reconstructed and output to the data separation section 157.
  • a synchronization signal (not shown) is restored from the time information of the CIP header 631 described above.
  • the received video data can be displayed in synchronization with the synchronization signal.
  • the data separation unit 152 separates the track data input by the data reception unit 151 into audio data, video data, and subcode.
  • the separated video data is separated into the video coded data stored in the video coded data recording area 403 and the accompanying information stored in the VAU X area as shown in FIG.
  • the encoded data is output to the video decoding unit 154. It also extracts 3D information from the accompanying information and outputs it to the control unit 153.
  • the video decoding unit 154 When the video data input from the data separation unit 152 is encoded, the video decoding unit 154 performs a decoding process using a predetermined method. In other cases, the input video data is output to the video converter 155 as it is.
  • the control unit 153 refers to the version information in the 3D information, and determines that the version of the interpretable 3D information before the version number can be interpreted. If each item of the 3D information can be interpreted, control information for controlling the video conversion unit 155 is output to the video conversion unit 155 based on the interpreted 3D information. If the 3D information is not extracted, information indicating that no 3D information exists is output to the video converter 155. If the 3D information cannot be interpreted due to a difference in the version, the processing may be stopped, or since it is known that the image is at least a 3D image, default control information is output to the image conversion unit 155. You may make it.
  • control unit 153 determines the presence or absence of 3D information (here, it takes one of “Yes” and “No”) and the display mode of the display unit 156. If there is 3D information, the presence or absence of 3D information is set to “Yes” and the display mode is set to “3D”. If there is no 3D information, the presence or absence of 3D information is set to “No” and the display mode is set to “3D”. 2D ”. However, when the display mode is specified by the user, the display mode specified by the user is output regardless of the value of the presence or absence of the 3D information. The control unit 153 outputs the presence or absence of the 3D information to the switch SW1, and outputs the display mode to the display unit 156.
  • the switch SW1 switches so that the output of the image conversion unit 155 is input to the display unit 156, and the presence or absence of 3D information changes to “None”. In this case, switching is performed so that the output of the video decoding unit 154 is input to the display unit 156.
  • the video converter 155 converts the video data input from the video decoder 154 into a format that can be displayed on the display 156 according to the control information input from the controller 153.
  • the control unit 153 rearranges the pixels of the input video data every other pixel in the horizontal direction to match the display unit 156.
  • the control information is output to the video conversion unit 155 so as to convert to the format. The viewer can view the three-dimensional image displayed on the display unit 156.
  • the video data may be subjected to resolution conversion and displayed on the full screen, or the resolution may be used as it is on the display unit. It may be displayed at the center of the screen of 156.
  • control unit 15 3 Converts the three-dimensional image displayed in the window 720 in the same manner as in the case of the full-screen display described above.
  • control information is output to the video converter 155 so that single-viewpoint images are arranged in a double order so that the same video can be seen by the left and right eyes.
  • two-dimensional display window 703 is displayed on a three-dimensional display window 702 as shown in FIG. 13B, two-dimensional display may be performed on the entire screen. ,.
  • the video receiving device 150 may display a video of a predetermined viewpoint, You may make it selectable by specification. This is the same when “2D video” is an undefined value.
  • the “adjustment of pop-out amount” in FIG. 12 indicates the amount by which the three-dimensional image pops out from the display surface of the display unit 156.
  • pixel 1 of the left-eye image is displayed at display position 801
  • corresponding pixel R 1 of the right-eye image is displayed at display position 802.
  • the display position of the pixel R1 of the right eye image is moved to the left and changed from 802 to 804, the image forming the image at the position 803 can be seen at the position 805. become. Since the position 805 is located on the near side as compared with the position 803, it can be seen from the display surface. Conversely, if pixel R1 is moved to the right of 802, the image forming the image at position 803 will be seen deeper than the display surface.
  • the pixel R1 is called a corresponding point of the pixel L1.
  • control unit 153 controls the video conversion unit to shift either the left or right video by a predetermined number of pixels in the horizontal direction. Output control information to 1 5 5.
  • FIGS. 15A and 15B are diagrams showing a case where the right eye image is shifted to the left.
  • Fig. 15 Shows the state before the A shift, and the entire display screen is displayed in three dimensions.
  • Fig. 15B shows the state after the shift. The entire image cannot be displayed because the area 9 01 indicated by the dotted line of the eye image is outside the display screen.
  • FIG. 16 to FIG. 16C are diagrams showing display examples at this time.
  • Figure 16A shows the case where the shifted right-eye image is not displayed, and the right-eye image is shifted to display a part of the left-eye image that has no corresponding point in two dimensions.
  • Fig. 16B shows the case where the right-eye image is left and the left-eye image is not displayed, as in Fig. 16A. I have.
  • FIG. 16C shows a case where only a portion having a corresponding point is displayed three-dimensionally.
  • the item “adjustment reference image” in FIG. 12 is for indicating the image to be left as a two-dimensional display as a result of adjusting the pop-out amount, and when the left-eye image is specified as the “adjustment reference image” As shown in Fig. 16A, when the right-eye image is specified as the “adjustment reference image”, it becomes as shown in Fig. 16B.
  • the “pop-out amount adjustment” and “adjustment reference video” may use predetermined settings in the video receiving device 150 or may be changed by user designation. When changing by the user's designation, the video on the shift side and the adjustment reference video may be selected so as to match or may be selected separately.
  • the item “up / down shift adjustment amount” in FIG. 12 indicates the amount of vertical adjustment in the left and right images. It is used to correct the shift as shown in Fig. 17B when the left and right images shift up and down during shooting as shown in Fig. 17A. In the example of FIG. 12, the shift direction is represented by positive and negative signs, and 13 indicates that the pixel is shifted downward by 3 pixels.
  • the direction of the shift may be separated from the number of pixels to be shifted by the force expressed by the positive and negative signs, and may be independently specified as the “up-down shift direction”.
  • the image to be shifted is determined based on the “adjustment reference image” described above.
  • the items “3D display intensity” and “3D display restriction threshold” in Fig. 12 may adversely affect your health if you continue to view 3D images. Used to do.
  • the control unit 153 sets the display mode to “3D”. Switch to “2D” and switch to image converter 1 5 5 Output control information to convert 3D video to 2D video. Display 1
  • step 5 the display is forcibly switched to 2D display.
  • the viewing restriction threshold a value of “3D display restriction threshold” may be used, or a value corrected by the video receiver 150 based on this value may be used.
  • the case where the DV method is used as the recording method as described above will be described as an example.
  • elements necessary for high-speed search in the 3D information are recorded in the subcode area 304 in FIG. 4 in advance.
  • the video transmitting apparatus 140 packetizes only the subcode of the data read from the recording medium 200 when performing a high-speed search of the recording medium, and
  • the video receiving device 15 ⁇ receives the bucket from the communication channel 160, and uses the first received time code as the start position of the first video content. If the packet contains 3D information, the attribute is set to 3D; otherwise, the attribute is set to 2D. 7 When there is a change in the presence or absence of 3D information in the fire, that is, when the attribute is 3D, there is 3D information-when there is no change, or when the attribute is 2D, 3D The time when the information changes from “no” to “present” is set as the start position of the next video content, and the same procedure is performed each time there is a change in the presence or absence of 3D information.
  • the control unit 153 reads “3D video type” and “3D display intensity” and provides the user with a list of video content classification information as shown in FIG. Present. At this time, for the “3D video type” and “3D display intensity” displayed in the list, the control unit 153 acquires statistics from the start to the end of the video content, and presents the most frequent value. However, the values to be displayed are not limited to this, even if they are maximum, minimum, median or average. Good.
  • the video receiving device 150 transmits, to the video transmitting device 140, a command for requesting the transmission of the video content selected by the user by the transmitting unit 158.
  • the video transmitting device 140 receives the command by the receiving unit 144, reproduces the video content, and starts transmitting the video content.
  • the received 3D information is recorded in the header as described above.
  • the values displayed in the list may be recorded in “stereoscopic image type” and “3D display intensity”.
  • the present invention can also be applied to a video reproducing device that reads video data from a recording medium.
  • a video receiving apparatus including a receiving unit that receives video data in a predetermined format and accompanying information of the video data from a communication path, or video data and video recorded on a recording medium
  • a video reproducing apparatus provided with a reading section for reading out accompanying information of data
  • a detecting section for detecting additional information for displaying video data three-dimensionally from the accompanying information is provided, and when the additional information is detected by the detecting section, By displaying video data in three dimensions, it is possible to easily view three-dimensional video with versatility.
  • versatility is obtained by creating classification information in which video data is classified into a 3D video to which additional information is added and a 2D video other than that, according to the presence or absence of additional information. Easy to watch 3D video with Is obtained.
  • the present invention by reproducing the video data selected based on the classification information, it is possible to obtain an effect that it is possible to easily view the versatile 3D video. .
  • the present invention includes a recording unit that records video data selected based on the classification information on a recording medium, so that it is easy to view and listen to versatile 3D video. Is obtained.
  • the present invention by providing a recording unit that records the classification information on the recording medium, an effect is obtained that it is possible to easily view a versatile 3D video.

Description

明細書 映像受信装置および映像再生装置 技術分野
本発明は、 両眼視差を利用した 3次元映像を撮影して通信路により伝送された 映像データを受信して 3次元表示するための映像受信装置および両眼視差を利用 した 3次元映像を撮影して記録媒体に記録された映像データを読み出して 3次元 表示するための映像再生装置に関するものである。 背景技術
従来、 被写体に対して視差を持った複数の映像を左右の眼で別々に見ることに より、 撮影された被写体を立体的に見ることのできるステレオ映像を撮影するた めの方法として、 一般的な単眼カメラに視点の異なる複数の被写体像を形成する ステレオアダプタを装着して、 1画面に視差のある複数の映像を撮影するという ことが行われている。
図 2 O A〜図 2 0 Cは、 ステレオアダプタを装着した際の撮影映像を説明する ための図である。
図 2 O Aはステレオアダプタを装着しない状態で撮影した映像であり、 図 2 0 Bは、画角が 1 / 2になるタイプのステレオアダプタを装着して撮影した映像を、 図 2 0 Cは、 画角は変化せず 撮影できる範囲が狭くなるタイプのステレオァダ プタを装着して撮影した映像を示す。 ステレオアダプタを装着した場合、 一般に 画面の左側に左眼用映像が、 右側に右眼用映像が映される。
このようにして撮影された映像は、 左眼用映像を左眼のみで、 右眼用映像を右 眼のみで見ることで立体視することができる。
図 2 1 Aおよび図 2 1 Bは、 両眼視差を利用して立体視を実現する代表的な方 式の 1つである、 パララクスバリァ方式を説明するための図である。
図 2 1 Aは、 視差が生じる原理を示す図である。 図 2 1 Bは、 パララクスバリ ァ方式で表示される画面の表示形式を示す図であり、 左眼用映像と右眼用映像が 水平方向 1画素おきに交互にならんだ形に配置されている。
図 2 1 Aでは、図 2 1 Bに示すような映像を、映像表示パネル 60 1に表示し、 同一視点の画素の間隔よりも狭い間隔でスリットを持つパララクスバリア 602 を映像表示パネル 60 1の前面に置くことにより、 左眼用映像は左眼 603だけ で、 右眼用映像は右眼 604だけで観察することになり、 立体視を行うことがで きる。
ところで、 このようにステレオ撮影した 3次元映像に適した再生を行うために は、 単眼撮影された 2次元映像と、 ステレオ撮影された 3次元映像を区別する必 要があり、 特開 200 1— 22 208 3号公報においては、 ステレオ撮影された 3次元映像と単眼撮影された 2次元映像とを区別するために、 前者には、 " s t e r e o l" , " s t e r e o 2" , …といった記録名を、 後者には、 " n o r ma 1 1" , " n o r m a 1 2" , …といった記録名を、 それぞれ識別情報とし て付加することで、 3次元映像と 2次元映像とを識別する方法が開示されている。 しかしながら、 上記従来の技術では、 付加される識別情報が記録名のみである ために、 記録された映像がどのような条件で撮影されたものであるか知ることが できない。 ある特定の撮影機器で撮影した映像のみを再生するための再生機器を 用いる場合にはよいが、 他の撮影機器で撮影した映像の場合、 同じ再生機器を用 いて再生することができないことがある。
例えば、 図 20 Bに示すようなステレオ撮影された映像を図 2 1 Bの表示形式 に変換するためには、 左眼用映像と右眼用映像を水平方向 1画素おきに交互に並 ベればよい。 一方、 図 20 Cに示す映像を図 2 1 Bの表示形式に変換するために は、 左眼用映像と右眼用映像を、 それぞれ水平方向に 1/2に間引きしてから水 平方向 1画素おきに交互に並べる必要がある。
このようにステレオ撮影された 3次元映像を再生するためには、 表示デバイス に適合した形式に変換する必要がある。 ところが、 再生する映像のデータ形式が 異なれば、 必要となる処理方法も異なるため、 同一の再生機器においても、 再生 する映像のデータ形式がわからなレ、場合には、 表示形式に正しく変換することが できない。 反対に同じ撮影機器で撮影された映像であっても、 再生機器側の表示 方式が異なれば、 必要となる処理方法が異なるため、 正しく変換することができ ない。
つまり、 撮影機器と再生機器が 1対 1に対応していればよいが、 異なる機器間 で映像をやり取りするためには撮影条件および再生条件が一致する必要があるた め、 撮影した映像の汎用性が大きく損なわれるという問題があった。
また、 ステレオ撮影時のみならず単眼撮影時においても識別情報を記録してい るが、 記録の仕方によっては、 他の機器において再生できなくなるという問題点 があった。 発明の開示
本発明は、 上記の問題点に鑑みてなされたものであり、 既存の機器に対する互 換性を維持しつつ、 ステレオ撮影時の映像データに汎用性を持たせるための付加 情報を含んで構成された映像データの視聴を容易に行うことのできる映像再生装 置および映像受信装置を提供することを目的とする。
上記の課題を達成するために、 本発明の 1つの局面に従うと、 通信路から所定 の形式の映像データおよび映像データの付随情報を受信する受信部を備えた映像 受信装置であって、 映像データを 3次元表示するための付加情報を付随情報から 検出する検出部を備え、 検出部により付加情報が検出された場合に、 映像データ を 3次元表示するための信号を生成する。
この発明の他の局面に従うと、 記録媒体に記録された映像データおよび映像デ ータの付随情報を読み出す読出部を備えた映像再生装置であって、 映像データを 3次元表示するための付加情報を付随情報から検出する検出部を備え、 検出部に より付加情報が検出された場合に、 映像データを 3次元表示するための信号を生 成する。
好ましくは、 本発明は、 付加情報の有無に応じて、 映像データを、 付加情報の 付加された 3次元映像とそれ以外の 2次元映像に分類した分類情報を作成する。 また、 好ましくは、 本発明は、 分類情報に基づいて選択した映像データを再生 する。
また、 好ましくは、 本発明は、 分類情報に基づいて選択した映像データを記録 媒体に記録する記録部を備える。 また、好ましくは、本発明は、分類情報を記録媒体に記録する記録部を備える。 図面の簡単な説明
図 1は、 本発明における第 1の実施の形態による映像記録装置の構成例を示す 図である。
図 2は、 本発明における付加情報の一例を示す図である。
図 3は、 磁気テープのトラック構成例を示す図である。
図 4は、 磁気テープのトラックのフォーマツトを示す図である。
図 5は、 磁気テープのトラックフォーマツトの映像記録領域のフォーマツトを 示す図である。
図 6は、 本発明における映像データのファイルへの記録形式の一例を示す図で ある。
図 7は、 本発明における第 2の実施の形態による映像再生システムの構成例を 示す図である。
図 8は、 本発明における第 2の実施の形態による映像送信装置の構成例を示す 図である。
図 9は、 パケットの構成例を示す図である。
図 1 0は、 D V形式におけるデータブロックの伝送順を示す図である。
図 1 1は、 本発明における第 2の実施の形態による映像受信装置の構成例を示 す図である。
図 1 2は、 本発明における付加情報の一例を示す図である。
図 1 3 Aおよび図 1 3 Bは、 3次元表示の例を示す図である。
図 1 4は、 飛び出し量調整の原理を説明するための図である。 ' 図 1 5 Aおよび図 1 5 Bは、 飛び出し量調整時の画像形式の変化を説明するた めの図である。
図 1 6 A〜図 1 6 Cは、 飛び出し量調整時の表示方法を説明するための図であ る。
図 1 7 Aおよび図 1 7 Bは、 垂直位置の調整を説明するための図である。
図 1 8は、 本発明において 3 D情報のうち高速サーチ時に必要となる要素の一 例を示す図である。
図 1 9は、 本発明における分類情報の一例を示す図である。
図 2 O A〜図 2 0 Cは、 ステレオアダプタを装着した際の撮影画面を説明する ための図である。
図 2 1 Aおよび図 2 1 Bは、 パララクスバリア方式の原理を説明するための図 である。 発明を実施するための最良の形態
以下、 図面を参照して本発明の実施の形態について説明する。
[第 1の実施の形態]
図 1は、 本発明における第 1の実施の形態による映像記録装置 1 0 0の構成を 示すブロック図である。
図 1を参照して、 映像記録装置 1 0 0は、 被写体を撮影した映像を記録媒体 2 ◦ 0に記録し、 記録媒体 2 0 0に記録された映像を再生する。 したがって、 映像 記録装置 1 0 0は、 映像再生装置としても機能する。
映像記録装置 1 0 0は、 単眼撮影とステレオ撮影の撮影機能を選択的に切替え るための機能選択部 1 0 1と、 C C D (Charge Coupled Device) などの撮像素子 やオートフォーカス回路を備えた撮像部 1 0 2と、 所定のフォーマツトの 3次元 情報(以下、 「3 D情報」 と呼ぶ) を生成する 3 D情報生成部 1 0 3と、 映像デー タと 3 D情報とをフォーマツト化して記録媒体 2 0 0に記録するデータ記録部 1 0 4とを備える。 映像記録装置 1 0 0は、 さらに、 記録媒体 2 0 0から記録デー タを読み出すデータ読出し部 1 0 6と、 映像データを表示形式に変換する映像変 換部 1 0 7と、 3 D情報に基づき映像変換部 1 0 7の制御を行う制御部 1 0 5と、 パララックスバリア方式などの 3次元表示デバイスを備えた表示部 1 0 8とを備 える。
以上のように構成された映像記録装置 1 0 0について、 以下、 その動作を説明 する。
はじめに、 撮影時の動作について説明する。 なお、 本実施の形態では、 図 2 0 Bに示すように、 2つに分割された画面に左眼用の映像と右眼用の映像がそれぞ れ水平方向に 1 / 2だけ縮小された状態で撮影されるタイプのステレオアダプタ を使用するものとして説明するが、 本宪明はこれに限定されるものではなく、 他 のタイプのステレオアダプタや 2眼式のカメラを使用しても構わない。
撮影者は、 撮影を開始する前に機能選択部 1 0 1を操作して、 撮影動作の選択 を行う。 2次元映像を撮影する際には通常撮影動作を、 3次元映像を撮影する際 には、撮像部 1 0 2にステレオアダプタを装着し、ステレオ撮影動作を選択する。 機能選択部 1 0 1は 3 D情報生成部 1 0 3に対して、 選択された撮影動作を機能 選択信号により通知する。
撮影者が撮影を開始すると、 所定の周期で撮像部 1 0 2により映像 1コマの取 り込みが行われ、 映像データがデータ記録部 1 0 4に対して出力される。 通常撮 影動作では、 データ記録部 1 0 4は、 撮像部 1 0 2により入力された映像データ を所定のフォーマットで記録媒体 2 0 0に記録する。 なお、 図 1には図示してい ないが、 音声や音楽を記録する場合は、 それらのデータもデータ記録部 1 0 4に て多重化される。
また、 表示部 1 0 8は、 撮像部 1 0 2によりデータ記録部 1 0 4に入力された 映像データを読み出して表示する。 撮影者は表示部 1 0 8に表示された映像によ り、 記録内容を確認しながら撮影を行うことができる。
一方、 ステレオ撮影動作では、 3 D情報生成部 1 0 3は、 画角などのステレオ アダプタの特性に関するパラメータから 3次元表示のために用いる 3 D情報を生 成する。 これらのパラメータはステレオアダプタに固有のものであるので、 予め 撮影者等により設定がなされて 3 D情報生成部 1 0 3に記憶されているものとす る。
図 2は、 このときの 3 D情報の一例を示す図である。
図 2において、 "=" で結ばれた左側が 3 D情報の項目名を、 右側が設定値を 表している。 図 2に示した 3 D情報は、 図 2 0 Bの映像のデータ形式を示してい る。 すなわち、 水平方向の視点数は 「2」、 垂直方向の視点数は 「1」 であり、 左 右の 2視点の映像が存在することを示し、 映像配置は 「水平配置」 であり、 左右 2つの映像が水平方向に結合されていることを示している。 また、 水平方向の縮 小は 「あり」 であり、 画角が変わらないために水平方向に縮小されていることを 示し、 続く縮小比で 1 / 2に縮小されていることを示している。 垂直方向には縮 小されていないため、 縮小比は指定されない。 2 D映像は、 2次元表示をすると きに選択する視点を示しており、 ここでは左眼用映像が指定されている。 なお、 3 D情報開始データは 3 D情報の開始を表す固定値のデータであり、 パージョン 情報は 3 D情報の互換性を示すためのものである。 以上のようにして生成された 3 D情報は、 映像データに付随する情報の一部としてデータ記録部 1 0 4に対し て出力される。
データ記録部 1 0 4は、 3 D情報生成部 1 0 3から入力された 3 D情報と撮像 部 1 0 2から入力された映像データを、 所定のフォーマツトに従って記録媒体 2 0 0に記録する。 記録データを記録するための記録媒体には、 一般に I。メモリ や光磁気ディスク、 磁気テープ、 ハードディスクなどが使用されるが、 ここでは 磁気テープを使用する場合について説明する。
一般に、 磁気テープへの記録方式としてはへリカルスキャンと呼ばれる方式が 普及している。 この方式では図 3に示すように、 磁気テープ上に不連続に構成さ れたトラック 3 0 0に対してデータが記録される。
図 4はトラック 3 0 0の 1つを拡大したものであり、 トラックフォーマツトの 一例を示している。
図 4において、 トラック 3 0 0は、アフレコを確実にするための I T I (Insert and Track Information) 領域 3 0 1と、 音声に関するデータが記録される音声記 録領域 3 0 2と、 映像に関するデータが記録される映像記録領域 3 0 3と、 トラ ック番号やタイムコードなどの付随情報が記録されるサブコード記録領域 3 0 4 とを含む。
図, 5は、 図 4に示した映像記録領域 3 0 3を拡大したものである。
映像記録領域 3 0 3は、同期パターンなどが記録されたプリアンプル 4 0 1と、 映像に関する付随情報が記録される領域 V A U X (Video AUXiliary data) a 4 0 2及び V A U X /3 4 0 4と、 映像符号化データが記録される映像符号化データ 記録領域 4 0 3と、 エラー訂正符号 4 0 5と、 マージンを稼ぐための機能を持つ ポストアンプノレ 4 0 6とを含む。
本実施の形態では、 映像に関する付随情報が記録される領域が、 領域 V A U X « 4 0 2と領域 VAU X ]3 4 0 4の 2つに分かれているが、 以後はこの 2つをま とめて VAU X領域と呼ぶことにする。 なお、 図示はしないが音声記録領域 3 0 2にも、音声に関する付随情報を記録する領域として AAU X (Audio AUXiliary data) 領域が用意されている。 3 D情報は VAU X領域、 AAU X領域、 サプコ ード領域のいずれかの領域に記録される。 本実施の形態では、 VAU X領域に記 録する場合について説明する。
データ記録部 1 0 4は、 入力された映像データを、 複数のトラックに分割して 記録する。 映像データは所定の方式により符号化された後、 映像符号化データ記 録領域 4 0 3に配置される。 3 D情報は固定長符号化や可変長符号化によりビッ ト列に変換されて、 他の付随情報と共に VAU X領域に配置される。 3 D情報の データ量は、 VAU X領域のサイズと比較して十分小さいので、 映像 1コマのデ —タを記録する複数トラックの各々に記録するものとする。 その際には、 常に V AU X a 4 0 2に配置してもよいし、 トラックごとに VAU X α 4 0 2と VAU X ]3 4 0 4とに交互に配置してもよい。 また、 他の付随情報を含めて VAU X領 域に収まらない場合には、 複数のトラックに分割して記録してもよい。
これらにプリアンプル 4 0 1と、 エラー訂正符号 4 0 5と、 ポストアンブル 4 0 6とを付カロして 1 トラック分の映像記録領域用データを作成し、 同様に作成し た音声記録領域用データとサブコード記録領域用データとを、 図 4に示したフォ 一マットとなるよう合成した後、 さらに I T I情報 3 0 1や各領域間のマージン を付加して記録データを出力する。
なお、 3 D情報は、 VAU X領域、 AAU X領域、 サブコード領域、 それぞれ に分割して記録してもよい。 さらにデジタル V T Rには付随情報を記録するため のカセットメモリを搭載しているものがあり、 上記の 3 D情報をカセットメモリ に記録してもよい。
次に、記録媒体 2 0 0に記録された映像を再生する再生機能について説明する。 図 1において、 データ読出し部 1 0 6は磁気テープのトラック 3 0 0から記録 データを読み出し、 トラック 3 0 0から読み出した順に音声データ、 映像データ およびサブコードに分割し、 それぞれエラー訂正を行う。 映像データの場合、 映 像符号化データ記録領域 4 0 3から読み出した映像符号化データを所定の方式に より復号し、 復号した映像データを映像変換部 1 0 7に出力する。 また、 VAU X領域から読み出した付随情報の中から 3 D情報開始マーカを検索して、 3 D情 報を抽出し、 制御部 1 0 5に出力する。
制御部 1 0 5は、 データ読出し部 1 0 6から入力された 3 D情報の中のパージ ヨン情報を参照し、 これ以降に続く項目が解釈可能か否かの判定を行う。 3 D情 報の項目が解釈可能な場合には、 解釈した 3 D情報から制御情報を決定し映像変 換部 1 0 7に出力する。 3 D情報がない場合には、 2次元表示を行うための制御 情報を映像変換部 1 0 7に対して出力する。
例えば 3 D情報が、 図 2に示すような構成をとる場合には、 映像データは、 図 2 0 Bに示すように左右映像が水平に結合され、 水平方向に 1 Z 2に縮小された 形式であることがわかる。 したがって、 制御部 1 0 5は、 この映像データを水平 方向に 1画素おきに並べ換えて表示部 1 0 8にあわせた形式に変換するように映 像変換部 1 0 7に対して制御情報を出力する。
なお、 3次元映像を表示する際には、 必要に応じて 2次元表示と 3次元表示を 手動で切替えられるようにしてもよい。 2次元表示に切替えられた場合には、 3 D情報の 2 D映像で指定された視点の映像が表示されるように映像変換部 1 0 7 に対して制御情報を出力する。 3 D情報が存在しない場合にはデータ読出し部 1 0 6から入力された映像データをそのまま出力するように映像変換部 1 0 7に対 して制御情報を出力する。
以上のように、 映像を記録する際に、 映像データの付随情報の記録領域に他の 付随情報と識別可能に 3 D情報を記録するため、 既存の機器に対する互換性を維 持したまま、 再生機器側で表示装置に適した表示形式に変換することが可能とな り、 記録した映像に汎用性を持たせることを容易に行うことが可能となる。 なお、 上記の実施の形態では、 記録媒体として磁気テープを使用する場合につ いて述べたが、 ファイルシステムが構築された I Cメモリや光磁気ディスク、 ハ ードディスクなどの記録媒体を用いて、 映像データをファイルとして記録しても よい。この場合、 3 D情報は映像フアイルのフアイルへッダに記録してもよいし、 映像データとは別のフアイルに記録してもよレ、。
図 6は、 3 D情報を映像ファイルのフアイルへッダに記録する際のフアイル形 式の一例を示す図である。 図 6では、 データは図の上から下に向かう順にフアイ ルに記録されるものとする。 図 6に示すように、 3D情報は従来のファイル形式 に用意されているへッダ部を拡張する仕組みを用いて、 既存のへッダ部の一部と して記録されるものとする。 ここでは、 拡張されたヘッダを拡張ヘッダと呼ぶ。 例えば、映像符号化方式の国際標準である MP EG-4 (Moving Picture Experts Group-4)を使用する場合、ファイルヘッダは V i s u a l Ob j e c t S e q u e n c eまた fま/および V i d e o Ob j e c t L a y e r 指し、 3 D情報はこれらの中にユーザデータとして記録される。
また、 映像 1コマを静止画として記録する際には、 例えば静止画符号化方式の 国際標準である J PEG (Joint Photographic Experts Group) を使用し、 この 場合、 ファイルヘッダはアプリケーションデータセグメントを指し、 新たなアブ リケーションデータセグメントを定義して 3 D情報を記録する。こうすることで、 既存のフアイル形式と互換性を保ったまま、 記録した映像に汎用性を持たせるこ とができる。
また、 上記の実施の形態では、 ステレオ撮影動作中に記録媒体 200に記録さ れる映像データのデータ形式を撮影された映像の形式と一致するようにして記録 している力 S、 機能選択部 101により、 撮影者が所望のデータ形式を選択できる ようにしてもよい。 このとき映像データのデータ形式に関するパラメータが 3D 情報生成部 103に送られ、 3D情報生成部 103は入力されたパラメータに基 づき 3 D情報を生成する。 データ記録部 104は 3 D情報生成部 103から入力 された 3D情報に基づいて、 撮像部 102から入力された映像データの形式を変 更する。
また、 上記の実施の形態では、 撮影者により録画機能が選択されたとき、 表示 部 108は、 撮像部 102により撮影された映像データを、 データ記録部 104 から読み出して表示しているが、 この映像はステレオ撮影動作時には、 図 20B に示すように、 2つに分割された画面に左眼用映像と右眼用映像がそれぞれ水平 方向に 1 2だけ縮小された状態となっている。 このとき、 データ記録部 104 力 ら出力される記録データを直接データ読出し部 106に対して入力して記録デ ータを再生するようにしてもよい。 または、 データ記録部 104により記録媒体 2 0 0に記録された記録データをすぐに読出して再生するようにしてもよい。 こ うすることで、 記録媒体から再生するときと同じようにステレオ撮影中の 3次元 映像を表示し、 内容を確認することができる。
また、 本発明は、 記録データを通信路に送信する映像送信装置に対して適用す ることも可能である。
[第 2の実施の形態]
図 7は、 映像データを送信する映像送信装置 1 4 0と映像データを受信する映 像受信装置 1 5 0を伝送路 1 6 0により接続し、 伝送路 1 6 0を介して、 映像デ 一タのほ力接続先の装置を制御するためのコマンドのやり取りを行うようにした 映像再生システムである。
図 8は、 映像送信装置 1 4 0の構成例を示すブロック図である。
図 8において、 図 1と同一部分には同一符号が付して、 その説明は繰り返さな い。 映像送信装置 1 4 0は、 機能選択部 1 0 1と、 撮像部 1 0 2と、 3 D情報生 成部 1 0 3と、 データ記録部 1 4 1と、 制御部 1 0 5と、 データ読出し部 1 4 2 と、 映像変換部 1 0 7と、 表示部 1 0 8と、 送信部 1 4 3と、 受信部 1 4 5と、 記録媒体 2 0 0とを含む。
以上のように構成された映像送信装置 1 4 0について、 以下、 その動作を説明 する。 しカゝしな力 Sら、 撮影が開始されてから記録データが記録媒体 2 0 0に記録 されるまでの動作は、 上述した第 1の実施の形態と同様であるので、 ここでの説 明は省略する。
データ記録部 1 4 1は、 映像データと 3 D情報を所定の記録フォーマットにし たがって多重化した多重化データを記録媒体 2 0 0に記録するほか、 前記多重化 データを送信部 1 4 3.に対して出力する。 あるいは、 データ読出し部 1 4 2は記 録媒体 2 0 0に記録されている多重化データを読み出し、 送信部 1 4 3に対して 出力する。
送信部 1 4 3は、 データ記録部 1 4 1またはデータ読出し部 1 4 2から入力さ れたデータを所定の通信規約に定められる形式のバケツトに格納して、 伝送路 1 6 0に送信する。
伝送路 1 6 0としては、 I E E E 1 3 9 4 (Institute of Electrical and Electronic Engineers 1394) 規格や U S B (Universal Serial Bus) 規格 のシリアルバス等が使用される。 本実施の形態においては I EEE 1394規格 のシリアルバスを使用する場合について説明する。
I EEE 1394規格では、 データ伝送の方式として、 ァシンクロナス通信方 式とアイソクロナス通信方式の 2種類の通信方式があるが、 映像データをリアル タイム伝送する場合には、 事前に保証された帯域を確保できるアイソクロナス通 信方式を使用する。
図 9は、 I EEE 1394規格のアイソクロナス通信方式におけるパケット形 式を示す図である。
図 9に示すようにパケット 600は、 パケットヘッダ 601と、 パケットへッ ダ 601に対する CRC (Cyclic Redundancy Check) であるヘッダ CRC602 と、 伝送するデータを格納するための領域であるデータフィールド 603と、 デ ータフィールドに対する CRCであるデータ CRC 604とを含む。
さらに、 データフィールドは、 伝送するデータであるデータ 632と当該デー タ 632の属性を示す C I P (Common Isochronous Packet) ヘッダ 631からな る。 C I Pヘッダ 631にはデータ 632のサイズや同期のための時間情報など が記録される。
記録方式に DV (Digital Video) 方式を用いた場合、 データ記録部 141また はデータ読み出し部 142から送信部 143へ、 図 4に示されるようなトラック データが、 トラック同期信号と共に入力される。 送信部 143は、 入力されたト ラックデータを 80バイ トのデータプロック (3バイトは I Dに使用される) に 分割する。
図 10は、 分割されたデータブロックの伝送順を示す図である。
図 10において、 プロック H0は図 4における I T I 301等の記録データを 格納するブロックであり、 ブロック SC i ( i =0, 1) は図 4におけるサブコ ード記録領域 304の記録データを、 プロック VAj (j =0、 1, 2) は、 図 5における領域 VAUXa 402および VAUX β 404の記録データを、 ブロ ック Vk (kは 0から 134までの整数) は、 図 5における映像符号化領域 40 3の記録データを、 ブロック Am (mは 0から 8までの整数) は図 4における音 声記録領域 3 0 2の記録データを分割したデータブロックを示している。 またデ 一タブ口ックの上側の数字は伝送順を示している。
送信部 1 4 3は、 図 1 0に示す伝送順となるように 6データブロックを 1パケ ットに格納して、 通信路 1 6 0に送信する。 したがって 1 トラックあたり 2 5パ ケットが送信される。 前述のように VAU X領域に 3 D情報を格納した場合、 各 トラックにおける最初のバケツトにより 3 D情報が伝送されることになる。
なお、 伝送されるバケツトに 3 D情報が含まれているか否かを示す情報をパケ ットヘッダに付けて伝送するようにしてもよい。 例えば、 前述のァイソクロナス 通信方式の場合には、 3 D情報が含まれているか否かを示す情報を図 9に示す C I Pヘッダ 6 3 1の拡張領域に記録するようにしてもよい。
次に、 映像受信装置 1 5 0について説明する。
図 1 1は、 映像受信装置 1 5 0の構成例を示すプロック図である。
図 1 1に示すように、 映像受信装置 1 5 0は、 通信路 1 6 0を介してデータを 受信する受信部 1 5 1と、多重化されたデータを分離するデータ分離部 1 5 2と、 受信データ中の 3 D情報の有無と制御情報を出力する制御部 1 5 3と、 符号化さ れた映像データを復号する映像復号部 1 5 4と、 映像データのデータ形式を変換 する映像変換部 1 5 5と、 3次元表示と 2次元表示の 2つの表示モードが切り替 え可能な表示部 1 5 6、 送信部 1 5 8とを含む。
次に、 以上のように構成された映像受信装置 1 5 0について、 一般的な動作を 説明する。
受信部 1 5 1は、 通信路 1 6 0からバケツト化された受信データを受信し、 パ ケットヘッダ等を除いて図 9に示したデータ 6 3 2を抽出し、 データ分離部 1 5 2に対して出力する。 また、 パケットのヘッダ部分から該パケットに 3 D情報が 含まれているか否かの情報を読み取り、 3 D情報の有無 (「あり」、 「なし」 および 「不定」 のいずれかの値をとる) として、 データ分離部 1 5 2に出力する。
データ分離部 1 5 2は、 受信部 1 5 1から入力された多重化データから映像デ ータを分離し、映像復号部 1 5 4に対して出力する。また、 3 D情報の有無が「あ り」 を示す場合には、 多重化データから 3 D情報を分離して、 制御部 1 5 3に対 して出力する。 3 D情報の有無が 「不定」 を示す場合には、 受信部 1 5 1から入力された多重 化データの中から 3 D情報開始コードを検索し、 3 D情報が該多重化データに含 まれているか否かを判定する。 3 D情報が存在する場合、 前記 3 D情報開始コー ド以降の所定バイト数のデータを 3 D情報として抽出する。
例えば、 前述のように映像送信装置 1 4 0において D V形式のデータがバケツ ト化されて送信された場合、 受信部 1 5 1は 1 トラック分のデータを受信したの ち、 図 4に示したトラックデータを再構成し、 データ分離部 1 5 7に出力する。 また前述の C I Pヘッダ 6 3 1の時間情報から同期信号 (図示しない) を復元 する。この同期信号により受信した映像データを同期して表示することができる。 データ分離部 1 5 2は、 データ受信部 1 5 1により入力されたトラックデータ から音声データ、 映像データおよびサブコードに分離する。 さらに、 分離された 映像データを、 図 5に示すように映像符号化データ記録領域 4 0 3に格納されて いる映像符号化データと VAU X領域に格納されている付随情報に分離し、 映像 符号化データは映像復号部 1 5 4に対して出力する。 また附随情報から 3 D情報 を抽出して制御部 1 5 3に出力する。
映像復号部 1 5 4は、 データ分離部 1 5 2から入力された映像データが符号化 されている場合には、 所定の方式で復号処理を行う。 それ以外の場合には入力さ れた映像データをそのまま映像変換部 1 5 5に対して出力する。
制御部 1 5 3は、 3 D情報の中のパージョン情報を参照し、 解釈可能な 3 D情 報のバージョン番号以前のバージョンを解釈可能と判定する。 3 D情報の各項目 が解釈可能ならば、 解釈した 3 D情報を基に映像変換部 1 5 5を制御するための 制御情報を映像変換部 1 5 5に対して出力する。 3 D情報が抽出されない場合に は 3 D情報が存在しない旨を示す情報を映像変換部 1 5 5に対して出力する。 なお、 バージョンの違いにより 3 D情報が解釈できない場合には処理を中止し てもよいし、 少なくとも 3次元映像であることはわかるため、 デフォルトの制御 情報を映像変換部 1 5 5に対して出力するようにしてもよい。
3 D情報から入力された映像データの形式を知ることができる。 例えば、 3 D 情報の内容が図 1 2に示すものである場合、「水平方向の視点数」、「垂直方向の視 点数」、 「映像結合」、 「映像配置」、 「水平方向の縮小」、 「垂直方向の縮小」 および 「縮小比」 のパラメータにより、 映像データは図 2 0 Bで示されるような水平方 向に 1 2に縮小された左右の映像が水平方向に結合された形式であると判別で さる。
さらに、 制御部 1 5 3は、 3 D情報の有無 (ここでは 「あり」、 「なし」 のいず れかの値をとる) および表示部 1 5 6における表示モードを決定する。 3 D情報 が存在する場合、 3 D情報の有無を 「あり」、 表示モードを 「3 D」 とし、 3 D情 報が存在しない場合、 3 D情報の有無を 「なし」、 表示モードを 「2 D」 とする。 ただし、表示モードについては、ユーザにより表示モードが指定された場合には、 3 D情報の有無の値にかかわらず、 ユーザ指定の表示モードを出力する。 制御部 1 5 3は、 3 D情報の有無をスィッチ S W 1に、 表示モードを表示部 1 5 6に対 して出力する。
スィッチ S W 1は、 3 D情報の有無が 「あり」 を示す場合、 画像変換部 1 5 5 の出力が表示部 1 5 6へ入力されるように切り替わり、 3 D情報の有無が「なし」 を示す場合、 映像復号部 1 5 4の出力が表示部 1 5 6に入力されるように切り替 わる。
映像変換部 1 5 5では、 制御部 1 5 3から入力された制御情報に応じて、 映像 復号部 1 5 4から入力された映像データを表示部 1 5 6で表示可能な形式に変換 する。
ここで表示部 1 5 6における 3次元表示の例について説明する。 表示部 1 5 6 の画面全体に 3次元映像を表示する場合、 制御部 1 5 3は、 入力された映像デー タの画素を水平方向に 1画素おきに並べ換えて表示部 1 5 6にあわせた形式に変 換するように映像変換部 1 5 5に対して制御情報を出力する。 表示部 1 5 6に表 示された映像を視聴者が 3次元映像を見ることができる。
なお、 入力された映像データの解像度と表示部 1 5 6の解像度が一致しない場 合には、 映像データに解像度変換を施して全画面表示してもよいし、 解像度はそ のままで表示部 1 5 6の画面の中央部分に表示するようにしてもよい。
一方、図 1 3 Aに示すように、画面 7 0 1の一部に表示用の窓 7 0 2を設けて、 窓 7 0 2の中に 3次元映像を表示する場合、 制御部 1 5 3は、 窓 7 0 2の中に表 示する 3次元映像については前述の全画面表示の場合と同様に変換し、 窓 7 0 2 以外の 2次元表示の部分については左右の眼に同じ映像が見えるように、 単視点 の画像を二重に並べるように映像変換部 1 5 5に対して制御情報を出力する。 また図 1 3 Bに示すように、 3次元表示の窓 7 0 2の上に 2次元表示の窓 7 0 3を表示する場合には、 画面全体において 2次元表示を行うようにしてもよレ、。 なお、 図 1 2の項目 「2 D映像」 は、 3次元映像を 2次元表示する際に表示す べき視点の映像を示している。 例えば、 図 1 2の場合には、 ユーザ指定による表 示モードが 「2 D」 の場合、 「2 D映像」 で指定された左眼映像を表示する。 図 2 0 Bの場合なら左眼映像を水平方向に 2倍に拡大する。 ただし、 2次元表示にど の視点の映像を用いるかは、 これに限定されるものではなく、 映像受信装置 1 5 0において予め決められた視点の映像を表示するようにしてもよいし、 ユーザ指 定により選択できるようにしてもよい。 これは 「2 D映像」 が不定値である場合 にも同様である。
また、 図 1 2の 「飛び出し量調整」 は、 表示部 1 5 6の表示面から 3次元映像 が飛び出して見える量を示している。
飛び出し量について、 図 1 4を用いて説明する。 図 1 4において、 左眼映像の 画素 1は表示位置 8 0 1に表示され、 右眼映像の対応する画素 R 1は表示位置 8 0 2に表示される。 これらの画素は位置 8 0 3に結像する。
ここで、 右眼映像の画素 R 1の表示位置を左に移動して 8 0 2から 8 0 4に変 更すると、 位置 8 0 3に像を結んでいた映像が位置 8 0 5に見えるようになる。 位置 8 0 5は位置 8 0 3と比べて手前にあるため、 表示面から飛び出して見える ようになる。 逆に画素 R 1を 8 0 2よりも右に移動させると、 位置 8 0 3に像を 結んでいた映像が表示面よりも奥に見えるようになる。 ここで、 画素 R 1を画素 L 1の対応点と呼ぶ。
このように「飛び出し量調整」により指定された飛び出し量を実現するために、 制御部 1 5 3は左右いずれかの映像を、 水平方向に所定の画素数だけシフトさせ るように、 映像変換部 1 5 5に対して制御情報を出力する。
図 1 5 Aおよび 1 5 Bは右眼映像を左にシフトした場合を示す図である。 図 1 5 Aシフト前の状態を示しており、 表示画面の全域が 3次元表示されてい る。 図 1 5 Bはシフト後の状態を示しており、 右眼映像をシフトさせた結果、 右 眼映像めうち点線で示した領域 9 0 1が表示画面の外にでるため映像全体は表示 できなくなる。
図 1 6 ~図1 6 Cはこのときの表示例を示す図である。 図 1 6 Aはシフトし た右眼映像を表示せず、 右眼映像をシフトすることにより、 左眼映像のうち対応 点のなくなった部分を 2次元表示する場合である。 図 1 6 Bは反対に右眼映像を 残して左眼映像を表示しない場合を示しており、 図 1 6 Aと同様に右眼映像のう ち対応点のなくなった部分を 2次元表示している。 図 1 6 Cは対応点のある部分 のみを 3次元表示した場合を示している。
また、 図 1 2の項目 「調整基準映像」 は、 飛び出し量を調整した結果、 2次元 表示として残す映像を示すためのものであり、「調整基準映像」 として左眼映像が 指定された場合は図 1 6 Aに示されるようになり、「調整基準映像」 として右眼映 像が指定された場合は図 1 6 Bに示されるようになる。
なお、 「飛び出し量調整」 および「調整基準映像」 は、 映像受信装置 1 5 0にお いて予め決められた設定を用いてもよいし、 ユーザ指定により変更できるように してもよい。 ユーザ指定により変更する場合、 シフトする側の映像と調整基準映 像は一致するように選択してもよいし、 別々に選択するようにしてもよい。 また、 図 1 2の項目 「上下ずらし調整量」 は、 左右映像における垂直方向の調 整量を示すためのものである。 図 1 7 Aに示したように撮影時に左右映像に上下 のずれが生じた場合に、 図 1 7 Bのようにずれを補正するために使用される。 図 1 2の例ではシフトの方向は正負の符号で表現しており、 一 3は下方向に 3画素 シフトすることを示している。 ここでは、 シフトの方向は正負の符号で表現して いる力 シフトする画素数と分離して 「上下ずらし方向」 として独立に指定でき るようにしてもよい。 シフトする映像は前述の 「調整基準映像」 に基づいて決定 する。
また、 図 1 2の項目 「3 D表示強度」 および 「3 D表示制限閾値」 は、 3次元 映像を視聴しつづけると、 健康に悪影響を及ぼす可能性があることから、 3次元 映像の視聴制限を行うために使用される。 3次元映像の表示中に所定の周期で「 3 D表示強度」 を加算した累積強度が、 所定の視聴制限閾値を越えた場合に、 制御 部 1 5 3は表示モードを 「3 D」 力 ら 「2 D」 に切り替え、 画像変換部 1 5 5に おいて 3次元映像が 2次元映像に変換するように制御情報を出力する。 表示部 1
5 6では強制的に 2次元表示に切替えるられる。 この場合、 所定の時間が経過し た後に、 2次元表示と 3次元表示の切替を可能とするが、 それまではユーザの操 作による 3次元表示への切替は禁止される。 なお、 視聴制限閾値としては 「3 D 表示制限閾値」 の値を使用してもよいし、 この値を基に映像受信装置 1 5 0で補 正した値を用いてもよい。
[第 3の実施の形態]
次に、 図 1 1に示した映像受信装置 1 5 0において、 映像送信装置 1 4 0に装 着された記録媒体 2 0 0に記録されている映像コンテンツの一覧を作成し、 ユー ザに提示する方法について説明する。
ここでは前述のように記録方式として D V方式を使用する場合を例にあげる。 また、 映像データを記録媒体 2 0 0に記録する際に、 図 1 8に示すように、 3 D 情報のうち高速サーチ時に必要となる要素を図 4のサブコード領域 3 0 4に予め 記録しておき、 映像送信装置 1 4 0は記録媒体を高速サーチする際に、 記録媒体 2 0 0から読み出したデータのうちサブコードのみをパケット化して、 伝送路 1
6 0に送信するものとする。
映像受信装置 1 5◦は、 通信路 1 6 0からバケツトを受信し、 最初に受信した タイムコードを最初の映像コンテンツの開始位置とする。 パケットに 3 D情報が 含まれていれば、 属性を 3 Dとし、 そうでなければ 2 Dとする。 7火に 3 D情報の 有無に変化があった時点、 つまり前記属性が 3 Dの場合には 3 D情報があり—な しに変化したとき、 または前記属性が 2 Dの場合には 3 D情報がなし→ありに変 化したときを、 次の映像コンテンツの開始位置とし、 以降 3 D情報の有無に変化 があるたびに同一の手順が行われる。
映像コンテンツが 3 Dの場合には、 制御部 1 5 3は 「3 D映像タイプ」 と 「3 D表示強度」 を読み取り、 図 1 9に示すような映像コンテンツの分類情報をリス トとしてユーザに提示する。 このとき、 リストに表示する 「3 D映像タイプ」 お よび 「3 D表示強度」 については、 制御部 1 5 3において映像コンテンツの開始 から終了までの統計をとり、 最頻値を提示するものとするが、 表示する値はこれ に制限されるものではなく、 最大値、 最小値、 中央値あるいは平均値であっても よい。
映像受信装置 1 5 0は、 送信部 1 5 8により、 ユーザにより選択された映像コ ンテンッの伝送を要求するコマンドを映像送信装置 1 4 0に対して送信する。 映 像送信装置 1 4 0は受信部 1 4 5により、 そのコマンドを受けて、 映像コンテン ッの再生し、 映像コンテンツの伝送を開始する。
なお、 映像受信装置 1 5 0にハードディスクやメモリなどの記録媒体が設けら れ、 受信したデータをファイルとして記録する場合、 前述のようにヘッダ部には 受信した 3 D情報を記録するが、 この 3 D情報のうち 「立体画像タイプ」 と 「3 D表示強度」 には、 リストに表示した値を記録するようにしてもよい。
また、 上記の実施の形態では記録媒体として磁気テープを用いる場合について 述べたが、 ファイルシステムが構築された I Cメモリや光磁気ディスク、 ハード ディスクなどの記録媒体を用いて、 リスト情報を映像データとは別のファイルと して記録してもよい。
また、 本発明は記録媒体から映像データを読み出す映像再生装置に対して適用 することも可能である。
今回開示された実施の形態はすべての点で例示であって制限的なものではない と考えられるべきである。 本発明の範囲は上記した説明ではなくて特許請求の範 囲によって示され、 特許請求の範囲と均等の意味および範囲内でのすべての変更 が含まれることが意図される。
以上説明したとおり、 本発明によれば、 通信路から所定の形式の映像データお よび映像データの付随情報を受信する受信部を備えた映像受信装置または、 記録 媒体に記録された映像データおよび映像データの付随情報を読み出す読出部を備 えた映像再生装置において、 映像データを 3次元表示するための付加情報を付随 情報から検出する検出部を備え、 検出部により付加情報が検出された場合に、 映 像データを 3次元表示することで、 汎用性を持たせた 3次元映像を視聴すること を容易に行うことができるという効果が得られる。
あるいは、好ましくは、本発明では、付加情報の有無に応じて、映像データを、 付加情報の付加された 3次元映像とそれ以外の 2次元映像に分類した分類情報を 作成することで、 汎用性を持たせた 3次元映像を視聴することを容易に行うこと ができるという効果が得られる。
あるいは、 好ましくは、 本発明では、 分類情報に基づいて選択した映像データ を再生することで、 汎用性を持たせた 3次元映像を視聴することを容易に行うこ とができるという効果が得られる。
あるいは、 好ましくは、 本発明では、 分類情報に基づいて選択した映像データ を記録媒体に記録する記録部を備えることで、 汎用性を持たせた 3次元映像を視 聴することを容易に行うことができるという効果が得られる。
あるいは、 好ましくは、 本発明では、 分類情報を記録媒体に記録する記録部を 備えることで、 汎用性を持たせた 3次元映像を視聴することを容易に行うことが できるという効果が得られる。

Claims

請求の範囲
1. 映像受信装置 (150) であって、
通信路から所定の形式の映像データと前記映像データの付随情報を受信する受 信部 (15 1) と、
前記映像データを 3次元表示するため情報であって少なくとも前記所定の形式 を示す付加情報を前記付随情報から検出する検出部 (152, 153) と、 前記検出部により前記付加情報が検出された場合に、 前記映像データを前記所 定の形式に従う 3次元表示するための信号を生成する信号生成部 (1 55) とを 備えることを特徴とする、 映像受信装置。
2. 前記付加情報の有無に応じて、 前記映像データを、 前記付加情報の付加さ れた 3次元映像とそれ以外の 2次元映像に分類した分類情報を作成することを特 徴とする、 請求項 1に記載の映像受信装置。
3. 前記分類情報に基づいて選択した映像データを再生することを特徴とする、 請求項 2に記載の映像受信装置。
4. 前記分類情報に基づいて選択した映像データを記録媒体に記録する記録部 を備えることを特徴とする、 請求項 2に記載の映像受信装置。
5. 前記分類情報を記録媒体に記録する記録部を備えることを特徴とする、 請 求項 2に記載の映像受信装置。
6. 映像再生装置 (100) であって、
記録媒体に記録された映像データおよび前記映像データの付随情報を読み出す 読出部 (106) と、
前記映像データを 3次元映像として表示するための情報であって少なくとも前 記所定の形式を示す付加情報を前記付随情報から検出する検出部 (105) と、 前記検出部により前記付加情報が検出された場合に、 前記映像データを前記所 定の形式に従う 3次元表示するための信号を生成する信号生成部 (107) とを 備えることを特徴とする、 映像再生装置。
7. 前記付加情報の有無に応じて、 前記映像データを、 前記付加情報の付カロさ れた 3次元映像とそれ以外の 2次元映像に分類した分類情報を作成することを特 徴とする、 請求項 6に記載の映像再生装置。
8 . 前記分類情報に基づいて選択した映像データを再生することを特徴とする、 請求項 7に記載の映像再生装置。
9 . 前記分類情報に基づいて選択した映像データを前記記録媒体に記録する記 録部を備えることを特徴とする、 請求項 7に記載の映像再生装置。
1 0 . 前記 3次元映像と前記 2次元映像の分類情報を記録媒体に記録する記録 部を備えることを特徴とする、 請求項 7に記載の映像再生装置。
PCT/JP2004/007800 2003-05-30 2004-05-28 映像受信装置および映像再生装置 WO2004107766A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04735404A EP1633148A4 (en) 2003-05-30 2004-05-28 PICTURE RECEPTOR AND IMAGE PLAYER
US10/557,816 US20060269226A1 (en) 2003-05-30 2004-05-28 Image receiving apparatus and image reproducing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003154875A JP2004357156A (ja) 2003-05-30 2003-05-30 映像受信装置および映像再生装置
JP2003-154875 2003-05-30

Publications (1)

Publication Number Publication Date
WO2004107766A1 true WO2004107766A1 (ja) 2004-12-09

Family

ID=33487338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/007800 WO2004107766A1 (ja) 2003-05-30 2004-05-28 映像受信装置および映像再生装置

Country Status (6)

Country Link
US (1) US20060269226A1 (ja)
EP (2) EP2453663A3 (ja)
JP (1) JP2004357156A (ja)
KR (1) KR100745304B1 (ja)
CN (1) CN1799267A (ja)
WO (1) WO2004107766A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1781046A1 (en) * 2004-08-18 2007-05-02 Sharp Kabushiki Kaisha Image data display apparatus
CN102045581A (zh) * 2009-10-20 2011-05-04 索尼公司 拍摄设备、图像处理方法及程序
KR101468746B1 (ko) 2005-09-16 2014-12-04 스테레오그래픽스 코포레이션 스테레오스코픽 포맷 변환기

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4324435B2 (ja) * 2003-04-18 2009-09-02 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
KR100716982B1 (ko) * 2004-07-15 2007-05-10 삼성전자주식회사 다차원 영상 포맷의 변환장치 및 방법
JP4730120B2 (ja) * 2005-02-28 2011-07-20 日本ビクター株式会社 映像データ処理装置、映像再生装置、映像データ処理方法、映像再生方法、これらの方法をコンピュータによって実行するためのプログラム並びに記録媒体
US8009188B2 (en) 2005-02-28 2011-08-30 Victor Company Of Japan, Ltd. Video data processing apparatus utilizing viewer influence, picture reproducing apparatus, and computer programs related thereto
EP1879386A4 (en) * 2005-04-18 2009-12-02 Panasonic Corp RECORDING DEVICE
KR100828358B1 (ko) * 2005-06-14 2008-05-08 삼성전자주식회사 영상 디스플레이 모드 전환 방법, 장치, 및 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
JP4638784B2 (ja) * 2005-07-19 2011-02-23 オリンパスイメージング株式会社 画像出力装置及びプログラム
KR100747598B1 (ko) 2005-12-09 2007-08-08 한국전자통신연구원 디지털방송 기반의 3차원 입체영상 송수신 시스템 및 그방법
KR100716142B1 (ko) * 2006-09-04 2007-05-11 주식회사 이시티 스테레오스코픽 영상 데이터의 전송 방법
KR100864826B1 (ko) 2006-09-29 2008-10-23 한국전자통신연구원 디지털 방송기반의 3차원 정지영상 서비스 방법 및 장치
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
EP2501137A3 (en) 2007-06-11 2012-12-12 Samsung Electronics Co., Ltd. Method and apparatus for generating header information of stereoscopic image
CN101868970B (zh) * 2007-10-19 2015-01-21 三星电子株式会社 记录三维图像数据的方法
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
KR101464535B1 (ko) * 2008-02-13 2014-11-25 삼성전자주식회사 데이터 기록 방법 및 장치, 데이터 재생 방법 및 장치,기록 매체
WO2009102173A1 (en) * 2008-02-13 2009-08-20 Samsung Electronics Co,. Ltd. Method and apparatus for recording data, method and apparatus for reproducing data, and recording medium for recording data
KR101488199B1 (ko) * 2008-03-12 2015-01-30 삼성전자주식회사 영상 처리 방법, 영상 재생 방법, 그 장치 및 기록매체
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US9357231B2 (en) 2008-07-31 2016-05-31 Mitsubishi Electric Corporation Video encoding device, video encoding method, video reproducing device, video reproducing method, video recording medium, and video data stream
US20100046917A1 (en) * 2008-08-21 2010-02-25 David Naranjo 3d enabled player/recorder
KR20100023378A (ko) * 2008-08-21 2010-03-04 삼성전자주식회사 모바일 환경에서 프록시 서버를 이용한 3차원 패킷 스케일 다운 장치 및 방법
JP4974984B2 (ja) * 2008-09-11 2012-07-11 三菱電機株式会社 映像記録装置及び方法
WO2010050691A2 (en) 2008-10-27 2010-05-06 Samsung Electronics Co,. Ltd. Methods and apparatuses for processing and displaying image
WO2010058547A1 (ja) 2008-11-18 2010-05-27 パナソニック株式会社 特殊再生を考慮した再生装置、集積回路、再生方法
WO2010064472A1 (ja) * 2008-12-01 2010-06-10 シャープ株式会社 コンテンツ再生装置、再生方法、プログラム及び記録媒体
AU2009329113B2 (en) * 2008-12-19 2015-01-22 Koninklijke Philips Electronics N.V. Method and device for overlaying 3D graphics over 3D video
US20110090305A1 (en) * 2009-02-19 2011-04-21 Wataru Ikeda Recording medium, playback device, and integrated circuit
JP5216640B2 (ja) * 2009-03-11 2013-06-19 富士フイルム株式会社 撮像装置および方法
JP4525831B1 (ja) * 2009-03-31 2010-08-18 株式会社カシオ日立モバイルコミュニケーションズ 画像受信装置、および、プログラム
CN102461180B (zh) * 2009-05-18 2016-01-20 Lg电子株式会社 能进行3d模式选择的立体影像再现装置及方法
CN102144395A (zh) * 2009-06-10 2011-08-03 Lg电子株式会社 高速搜索模式中的立体图像再现方法和使用该方法的立体图像再现装置
JP5463747B2 (ja) * 2009-06-15 2014-04-09 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
JP5299111B2 (ja) 2009-06-19 2013-09-25 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5250491B2 (ja) * 2009-06-30 2013-07-31 株式会社日立製作所 記録再生装置
JP5433862B2 (ja) * 2009-09-30 2014-03-05 日立マクセル株式会社 受信装置及び表示制御方法
US8988495B2 (en) * 2009-11-03 2015-03-24 Lg Eletronics Inc. Image display apparatus, method for controlling the image display apparatus, and image display system
JP5482254B2 (ja) * 2009-11-05 2014-05-07 ソニー株式会社 受信装置、送信装置、通信システム、表示制御方法、プログラム、及びデータ構造
JP5532864B2 (ja) * 2009-11-27 2014-06-25 株式会社Jvcケンウッド 再生装置、立体映像記録再生方法、及び再生方法
US8462197B2 (en) 2009-12-17 2013-06-11 Motorola Mobility Llc 3D video transforming device
JP2011139209A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置および方法
JP5387399B2 (ja) * 2009-12-28 2014-01-15 ソニー株式会社 情報処理装置および情報処理方法
JP2011138354A (ja) * 2009-12-28 2011-07-14 Sony Corp 情報処理装置および情報処理方法
US8743178B2 (en) * 2010-01-05 2014-06-03 Dolby Laboratories Licensing Corporation Multi-view video format control
JP5450118B2 (ja) * 2010-01-14 2014-03-26 ソニー株式会社 映像伝送装置、映像表示装置、映像表示システム、映像伝送方法及びコンピュータプログラム
JP5870272B2 (ja) * 2010-03-29 2016-02-24 パナソニックIpマネジメント株式会社 映像処理装置
JP5559614B2 (ja) * 2010-04-21 2014-07-23 日立マクセル株式会社 受信装置および受信方法
JP5604173B2 (ja) * 2010-04-30 2014-10-08 三洋電機株式会社 再生装置、表示装置、記録装置及び格納媒体
JP2011250317A (ja) * 2010-05-28 2011-12-08 Sharp Corp 3次元ディスプレイ装置、表示方法、プログラム、及び、記録媒体
JP5568404B2 (ja) 2010-08-06 2014-08-06 日立コンシューマエレクトロニクス株式会社 映像表示システム及び再生装置
JP2012039337A (ja) * 2010-08-06 2012-02-23 Hitachi Consumer Electronics Co Ltd 映像表示システム及び再生装置
KR20120018078A (ko) 2010-08-19 2012-02-29 삼성전자주식회사 영상 기록 재생 장치, 영상 기록 재생 방법, 및 기록매체
JP5602539B2 (ja) * 2010-08-20 2014-10-08 日立マクセル株式会社 受信装置
JP2012049932A (ja) * 2010-08-30 2012-03-08 Hitachi Consumer Electronics Co Ltd 受信装置
JP5581164B2 (ja) * 2010-09-30 2014-08-27 Necパーソナルコンピュータ株式会社 映像表示装置および映像表示方法
JP5543892B2 (ja) * 2010-10-01 2014-07-09 日立コンシューマエレクトロニクス株式会社 再生装置、再生方法、表示装置、及び表示方法
JP2012100102A (ja) * 2010-11-02 2012-05-24 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9491437B2 (en) 2010-12-07 2016-11-08 Samsung Electronics Co., Ltd. Transmitter for transmitting data for constituting content, receiver for receiving and processing data, and method therefor
KR101831775B1 (ko) 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
JP2012182785A (ja) * 2011-02-07 2012-09-20 Panasonic Corp 映像再生装置および映像再生方法
JP2012178706A (ja) * 2011-02-25 2012-09-13 Toshiba Corp 映像表示方法および映像表示装置
JPWO2012127837A1 (ja) * 2011-03-18 2014-07-24 パナソニック株式会社 表示装置、3d眼鏡、及び3d映像視聴システム
JP5452537B2 (ja) * 2011-04-04 2014-03-26 日立コンシューマエレクトロニクス株式会社 映像表示システム及び表示装置
JP5161998B2 (ja) * 2011-04-19 2013-03-13 株式会社東芝 情報処理装置、情報処理方法およびプログラム
WO2013104518A1 (en) * 2012-01-11 2013-07-18 Ultra-D Coöperatief U.A. Mobile display device
CN103905806B (zh) * 2012-12-26 2018-05-01 三星电子(中国)研发中心 利用单摄像头实现3d拍摄的系统和方法
JP6108546B2 (ja) * 2013-06-28 2017-04-05 日本放送協会 付加情報挿入装置、付加情報抽出装置、付加情報挿入プログラム、及び付加情報抽出プログラム
JP6135738B2 (ja) * 2015-10-19 2017-05-31 株式会社ニコン 画像再生装置
JP2016226008A (ja) * 2016-07-27 2016-12-28 日立マクセル株式会社 受信装置および受信方法
KR102333769B1 (ko) * 2018-06-29 2021-12-01 삼성디스플레이 주식회사 표시장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0644702A1 (en) 1993-09-17 1995-03-22 Alcatel Bell-Sdt S.A. Communication protocol for a mobile communication system
JPH07255068A (ja) * 1994-03-14 1995-10-03 Sony Corp テレビジョン方式及び表示装置
EP0860807A2 (en) 1997-02-10 1998-08-26 Canon Kabushiki Kaisha Method and system for a mixed display of 2D and 3D images
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3081675B2 (ja) * 1991-07-24 2000-08-28 オリンパス光学工業株式会社 画像記録装置および画像再生装置
JPH05122733A (ja) * 1991-10-28 1993-05-18 Nippon Hoso Kyokai <Nhk> 3次元画像表示装置
EP0644701B1 (en) * 1993-09-20 1999-12-01 Canon Kabushiki Kaisha Image taking and/or displaying system
JPH0879800A (ja) * 1994-09-06 1996-03-22 Olympus Optical Co Ltd 映像表示装置
JPH08317425A (ja) * 1995-05-19 1996-11-29 Olympus Optical Co Ltd 電子カメラ
JP3802629B2 (ja) * 1995-12-20 2006-07-26 オリンパス株式会社 立体画像生成装置
EP0888018B1 (en) * 1996-02-28 2006-06-07 Matsushita Electric Industrial Co., Ltd. Optical disk having plural streams of digital video data recorded thereon in interleaved manner, and apparatuses and methods for recording on, and reproducing from, the optical disk
GB9606740D0 (en) * 1996-03-29 1996-06-05 British Telecomm Telecommunications apparatus and method
JP3504111B2 (ja) * 1996-06-27 2004-03-08 株式会社東芝 立体視システム、立体視方法、及び、異なる2つの視点から見た一対の画像を立体視可能に表示させるコンピュータプログラムを格納する記憶媒体
EP2175665B1 (en) * 1996-12-04 2012-11-21 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
US6278480B1 (en) * 1997-02-07 2001-08-21 Canon Kabushiki Kaisha Compound eye camera system
JPH10336705A (ja) * 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
KR100563754B1 (ko) * 1997-07-18 2006-03-24 소니 가부시끼 가이샤 이미지 신호를 다중화하는 방법 및 시스템, 이미지 신호를 역다중화하는 방법 및 시스템 및, 전송 매체
US20030133007A1 (en) * 1997-10-21 2003-07-17 Katsumi Iijima Image pickup apparatus
JP4149037B2 (ja) * 1998-06-04 2008-09-10 オリンパス株式会社 映像システム
JP2000197074A (ja) * 1998-12-25 2000-07-14 Canon Inc 立体映像再生装置及び出力装置及びその制御方法及び記憶媒体
JP2000298246A (ja) * 1999-02-12 2000-10-24 Canon Inc 表示装置、表示方法および記憶媒体
JP2001197521A (ja) * 2000-01-06 2001-07-19 Toppan Printing Co Ltd 撮像装置、撮像方法及び撮像条件に係るデータを記録した記録媒体
JP2001222083A (ja) 2000-02-07 2001-08-17 Canon Inc 撮像装置、撮像装置の制御方法、及び制御方法が記載されたプログラムをコンピュータに供給する媒体
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
US7099567B2 (en) * 2000-04-21 2006-08-29 Matsushita Electric Industrial Co., Ltd. Video processing method and video processing apparatus
US6980184B1 (en) * 2000-09-27 2005-12-27 Alien Technology Corporation Display devices and integrated circuits
JP3667620B2 (ja) * 2000-10-16 2005-07-06 株式会社アイ・オー・データ機器 ステレオ画像撮影アダプタ、ステレオ画像撮影用カメラ、および、ステレオ画像処理装置
US7095444B1 (en) * 2000-11-06 2006-08-22 Sri International Method and apparatus for generating, distributing and reconstructing deconstructed video
EP1239416A1 (en) * 2001-02-28 2002-09-11 THOMSON multimedia Method and device to calculate light sources in a scene and to generate mutual photometric effects
JP3789794B2 (ja) * 2001-09-26 2006-06-28 三洋電機株式会社 立体画像処理方法、装置、およびシステム
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
WO2003092303A1 (en) * 2002-04-25 2003-11-06 Sharp Kabushiki Kaisha Multimedia information generation method and multimedia information reproduction device
JP4679804B2 (ja) * 2003-04-17 2011-05-11 シャープ株式会社 画像ファイル作成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0644702A1 (en) 1993-09-17 1995-03-22 Alcatel Bell-Sdt S.A. Communication protocol for a mobile communication system
JPH07255068A (ja) * 1994-03-14 1995-10-03 Sony Corp テレビジョン方式及び表示装置
EP0860807A2 (en) 1997-02-10 1998-08-26 Canon Kabushiki Kaisha Method and system for a mixed display of 2D and 3D images
JP2002095018A (ja) * 2000-09-12 2002-03-29 Canon Inc 画像表示制御装置及び画像表示システム、並びに画像データの表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1633148A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1781046A1 (en) * 2004-08-18 2007-05-02 Sharp Kabushiki Kaisha Image data display apparatus
EP1781046A4 (en) * 2004-08-18 2010-01-20 Sharp Kk IMAGE DATA DISPLAY APPARATUS
US7859529B2 (en) 2004-08-18 2010-12-28 Sharp Kabushiki Kaisha Image data display apparatus
KR101468746B1 (ko) 2005-09-16 2014-12-04 스테레오그래픽스 코포레이션 스테레오스코픽 포맷 변환기
CN102045581A (zh) * 2009-10-20 2011-05-04 索尼公司 拍摄设备、图像处理方法及程序

Also Published As

Publication number Publication date
EP1633148A1 (en) 2006-03-08
KR100745304B1 (ko) 2007-08-01
CN1799267A (zh) 2006-07-05
US20060269226A1 (en) 2006-11-30
EP2453663A2 (en) 2012-05-16
JP2004357156A (ja) 2004-12-16
KR20060041171A (ko) 2006-05-11
EP1633148A4 (en) 2009-10-21
EP2453663A3 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
WO2004107766A1 (ja) 映像受信装置および映像再生装置
KR100977193B1 (ko) 화상 데이터 생성 장치, 화상 데이터 재생 장치, 및 화상데이터 기록 매체
JP5293463B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9071830B2 (en) Information processing apparatus and information processing method
US8890977B2 (en) Systems and methods for concurrently playing multiple images from a storage medium
JP4224690B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
US7715618B2 (en) Image file creating apparatus and image file reproducing apparatus
JP3081675B2 (ja) 画像記録装置および画像再生装置
JP4332364B2 (ja) 映像記録システム,映像記録方法
WO2004093467A1 (ja) 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
JP2007511992A (ja) 動画撮影装置および動画撮影方法、動画撮影装置により映像信号が記録された記録媒体、記録媒体に記録された映像信号を再生する動画再生装置および動画再生方法
KR19990071538A (ko) 비디오데이터의택일적인재생이가능한멀티미디어스트림생성방법과멀티미디어광디스크오소링시스템
JP2005110121A (ja) 画像データ表示装置
KR20100067115A (ko) 영상 재생 장치 및 영상 재생 방법
JP4222817B2 (ja) 立体画像表示装置、記録方法、及び伝送方法
JP2004274253A (ja) 映像記録装置および映像送信装置
WO2004030377A1 (ja) 立体画像表示装置、記録方法、及び伝送方法
WO2004030375A1 (ja) 画像データ生成装置、画像データ再生装置、画像データ生成方法、画像データ再生方法、画像データ又は画像処理プログラムを記録した記録媒体および画像データ記録装置
JP4366609B2 (ja) 記録方法、記録装置、再生方法、再生装置、記録再生装置および記録再生方法
JP2007243706A (ja) データフォーマット変換装置及びデータフォーマット変換方法
JP2002165178A (ja) 再生装置および方法
JP3732916B2 (ja) ディジタル放送受信機
WO2013080555A1 (ja) 立体視映像データ生成装置及び立体視映像再生装置
JP4366610B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
JP2012151536A (ja) 画像ファイル生成装置、画像ファイル再生装置、画像ファイル生成方法、画像ファイル再生方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006269226

Country of ref document: US

Ref document number: 10557816

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048148662

Country of ref document: CN

Ref document number: 1020057022818

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004735404

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004735404

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057022818

Country of ref document: KR

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWP Wipo information: published in national office

Ref document number: 10557816

Country of ref document: US