DE202007019463U1 - Multiview-Video-Verarbeitungsvorrichtung - Google Patents

Multiview-Video-Verarbeitungsvorrichtung Download PDF

Info

Publication number
DE202007019463U1
DE202007019463U1 DE200720019463 DE202007019463U DE202007019463U1 DE 202007019463 U1 DE202007019463 U1 DE 202007019463U1 DE 200720019463 DE200720019463 DE 200720019463 DE 202007019463 U DE202007019463 U DE 202007019463U DE 202007019463 U1 DE202007019463 U1 DE 202007019463U1
Authority
DE
Germany
Prior art keywords
view
views
multiview
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE200720019463
Other languages
English (en)
Other versions
DE202007019463U8 (de
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020060037773A external-priority patent/KR20070076356A/ko
Priority claimed from KR1020060110337A external-priority patent/KR20070076391A/ko
Priority claimed from KR1020060110338A external-priority patent/KR20070076392A/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of DE202007019463U1 publication Critical patent/DE202007019463U1/de
Publication of DE202007019463U8 publication Critical patent/DE202007019463U8/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/455Demodulation-circuits

Abstract

Vorrichtung zum Decodieren von Multiview-Videodaten in einem Multiview-Videostrom, wobei die Vorrichtung aufweist: eine Parsereinheit (10) zum Erhalten von den Multiview-Videostrom repräsentierender Identifizierungsinformation, wobei der Multiview-Videostrom ein Ankerbild umfasst, das Ankerbild ein codiertes Bild darstellt, in dem alle Slices ausschließlich auf zur selben Zeit und zu einem anderen View als das Ankerbild gehörende Slices Bezug nehmen, die Parsereinheit aus dem Multiview-Videostrom auf Basis der Identifizierungsinformation View-Identifizierungsinformation erhält, und die View-Identifizierungsinformation für jeden Referenzview des Ankerbildes einen View-Identifikator bereitstellt; eine Pufferspeichereinheit (16) für decodierte Bilder zum Speichern eines Inter-View-Referenzbildes des Ankerbildes auf Basis der View-Identifizierungsinformation, und eine Inter-Vorhersageeinheit (13) zum Bestimmen eines Vorhersagewerts eines Makroblocks in dem Ankerbild auf Basis des gespeicherten Inter-View-Referenzbildes, wobei die Inter-Vorhersageeinheit den Makroblock unter Verwendung des Vorhersagewerts decodiert, wobei die Identifizierungsinformation aus einem Sequenzparametersatz erhalten wird.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Verarbeitung von Multiview-Videos.
  • Stand der Technik
  • Multiview-Videocodierung (MVC) betrifft eine Komprimierung von Videosequenzen (z. B. einer Sequenz von Abbildern oder "Bildern") die üblicherweise mit entsprechenden Kameras aufgenommen werden. Die Videosequenzen oder "Views" können in Übereinstimmung mit einem Standard wie beispielsweise MPEG codiert werden. Ein Bild in einer Videosequenz kann ein vollständiges Video-Einzelbild (video frame) oder ein Halbbild (field) eines Video-Einzelbilds darstellen. Ein Slice ist ein selbständig codierter Teilbereich eines Bildes, der einige oder alle Makroblocks des Bildes umfasst, wobei ein Makroblock einen Block von Bildelementen (oder "Pixel") umfasst.
  • Die Videosequenzen können als Multiview-Videosequenzen gemäß der H.264/AVC Codec-Technologie codiert werden, wobei viele Entwickler Forschungen im Hinblick auf eine Novellierung der Standards zur Aufnahme von Multiview-Videosequenzen betreiben.
  • Der derzeitige H.264 Standard gibt drei Profile zur Unterstützung von speziellen Funktionen vor. Der Ausdruck "Profil" bezeichnet die Standardisierung von technischen Komponenten zur Verwendung in Videocodierungs-/-decodierungsalgorithmen. Mit anderen Worten wird das Profil von einem Satz technischer Komponenten gebildet, der zum Decodieren eines Bitstroms einer komprimierten Sequenz vorgegeben ist und als Sub-Standard angesehen werden kann. Die oben erwähnten drei Profile sind ein Basisprofil, ein Hauptprofil und ein erweitertes Profil. Im H.264-Standard wurde eine Vielzahl von Funktionen für den Codierer und den Decoder so festgelegt, dass Codierer und Decoder jeweils mit dem Basisprofil, dem Hauptprofil und dem erweiterten Profil kompatibel sein können.
  • Der Bitstrom für den H.264/AVC-Standard ist entsprechend in eine Videocodierungsebene (Video Coding Layer, VCL) zur Abwicklung der Laufbildcodierung (d. h. der Sequenzcodierung) und eine Netzwerk-Abstraktionsebene (Network Abstraction Layer, NAL) gegliedert, die mit einem zum Übertragen bzw. Speichern codierter Information ausgebildeten Subsystem verknüpft ist. Die Ausgangsdaten des Codiervorgangs sind VCL-Daten, wobei diese vor einem Übertragen oder Speichern in NAL-Einheiten aufgenommen werden. Jede der NAL-Einheiten umfasst eine Rohbytesequenz-Nutzlast (Raw Byte Sequence Payload, RBSP), die entweder komprimierten Videodaten oder Header-Information entspricht.
  • Die NAL-Einheit enthält einen NAL-Header und eine RBSP. Der NAL-Header umfasst eine Flag-Information (z. B. nal_ref_idc) und Information zur Identifizierung (ID) (z. B. nal_unit_type). Die Flag-Information "nal_ref_idc" zeigt das Vorhandensein oder Fehlen eines als Referenzbild der NAL-Einheit verwendeten Slice an. Die ID-Information "nal_unit_type" gibt den Typ der NAL-Einheit an. Die RBSP speichert komprimierte Originaldaten. An den letzten Teil der RBSP kann ein RBSP-Abschlussbit (RBSP-trailing bit) so hinzugefügt werden, dass die Länge der RBSP als Vielfaches von 8 Bit dargestellt werden kann.
  • Es gibt eine Vielzahl von NAL-Einheiten, zum Beispiel ein Instantaneous-Decoding-Refresh-Bild (IDR-Bild, momentan-decodierungsaktualisiertes Bild), einen Sequenzparametersatz (Sequence Parameter Set, SPS), einen Bildparametersatz (Picture Parameter Set, PPS), und ergänzende Erweiterungsinformation (Supplemental Enhancement Information, SEI), et cetera.
  • Im Standard ist ein Zielprodukt unter Verwendung von Profilen und Ebenen grundsätzlich so definiert, dass das Zielprodukt mit adäquatem Aufwand realisiert werden kann. Der Decoder genügt bei einem entsprechenden Profil und einer entsprechenden Ebene einer vorgegebenen Randbedingung.
  • Das Profil und die Ebene können eine Funktion oder einen Parameter des Decoders so anzeigen, dass sie angeben, welche komprimierten Bilder von dem Decoder gehandhabt werden können. Durch die Profil-ID-Information kann eine spezielle Information identifiziert werden, die angibt, welches der mehreren Profile zu dem Bitstrom gehört. Die Profil-ID-Information "profile_idc" stellt ein Flag zum Identifizieren eines dem Bitstrom zugeordneten Profils zur Verfügung. Der H.264/AVC-Standard umfasst drei Profil-Identifikatoren (IDs). Wenn die Profil-ID-Information "profile_idc" auf "66" gesetzt ist, dann basiert der Bitstrom auf dem Basisprofil. Wenn die Profil-ID-Information "profile_idc" auf "77" gesetzt ist, basiert der Bitstrom auf dem Hauptprofil. Wenn die Profil-ID-Information "profile_idc" auf "88" gesetzt ist, basiert der Bitstrom auf dem erweiterten Profil. Die oben erwähnte "profile_idc"-Information kann zum Beispiel in dem SPS (Sequenz-Parametersatz) enthalten sein.
  • Offenbarung der Erfindung
  • Ein Verfahren zum Decodieren eines Videosignals umfasst nach einem Aspekt grundsätzlich ein Empfangen eines Bitstroms, der ein gemäß einem ersten Profil, das eine Auswahl von einem Satz von Profilen darstellt, der mehrere Profile für Einzelview-Videosignale und zumindest ein Profil für ein Multiview-Videosignal umfasst, kodiertes Videosignal und eine das erste Profil identifizierende Profilinformation aufweist, ein Extrahieren der Profilinformation aus dem Bitstrom und ein dem bestimmten Profil entsprechendes Decodieren des Videosignals.
  • Aspekte können eines oder mehrere der nachfolgenden Merkmale umfassen.
  • Das Verfahren weist ferner, wenn das bestimmte Profil zu einem Multiview-Videosignal gehört, ein Extrahieren einer mit mehreren Views verknüpften Konfigurationsinformation aus dem Bitstrom auf, wobei die Konfigurationsinformation eine View-Abhängigkeitsinformation, die die Abhängigkeitsbeziehungen zwischen entsprechenden Views darstellt, View-Identifizierungsinformation, die einen Referenzview angibt, Viewanzahlinformation, die die Anzahl an Views angibt, Viewebeneninformation zum Verfügung Stellen einer Viewskalierbarkeit, und Viewanordnungsinformation, die eine Kameraanordnung angibt, umfasst. Die Konfigurationsinformation kann zum Beispiel als Reaktion daraufhin extrahiert werden, dass das Profil als zu einem Multiview-Videosignal gehörend bestimmt wurde.
  • Die Profilinformation befindet sich in einem Header des Bitstroms.
  • Die View-Abhängigkeitsinformation repräsentiert die Abhängigkeitsbeziehungen in einer zweidimensionalen Datenstruktur.
  • Die zweidimensionale Datenstruktur umfasst eine Matrix.
  • Die Viewebeneninformation entspricht mehreren Ebenen, die den Views entsprechend einer hierarchischen View-Vorhersagestruktur unter den Views des Multiview-Videosignals zugeordnet sind.
  • Mehrere Bereiche eines gegebenen Bildes von Bildern eines gegebenen Views sind mit entsprechenden Identifikatoren verknüpft, die eine zugehörige Ebene angeben.
  • Die mehreren Bereiche entsprechen unabhängigen Slices des gegebenen Bildes.
  • Jedes Slice entspricht einem vollen Bild.
  • Bilder eines Views, der einer gegebenen Ebene zugeordnet ist, werden aus Bildern eines Views vorhergesagt, der einer niedrigeren Ebene als der gegebenen Ebene zugeordnet ist.
  • Bilder eines einzelnen Views, der der niedrigsten Ebene zugeordnet ist, werden nicht aus Bildern einer anderen Ebene vorhergesagt.
  • Die hierarchische View-Vorhersagestruktur umfasst einen einzelnen Basisview und mehrere Hilfsviews, wobei Bilder in einem View einer ersten Ebene auf der Basis von Bildern des Basisviews vorhergesagt werden und Bilder eines Views einer gegebenen höheren Ebene auf der Basis von Views vorhergesagt werden, die sich in niedrigeren Ebenen als der Ebene des Views der gegebenen höheren Ebene befinden.
  • Gemäß einem anderen Aspekt umfasst ein Verfahren zum Decodieren eines Multiview-Videosignals im Allgemeinen ein Empfangen eines Bitstroms, der ein den Abhängigkeitsbeziehungen zwischen den jeweiligen Views entsprechend codiertes Multiview-Videosignal aufweist, wobei die View-Abhängigkeitsinformation die Abhängigkeitsbeziehungen in einer zweidimensionalen Datenstruktur repräsentiert, sowie ein Extrahieren der zweidimensionalen Datenstruktur und ein Bestimmen der Abhängigkeitsbeziehungen aus der extrahierten Datenstruktur und ein Decodieren des Multiview-Videosignals gemäß den bestimmten Abhängigkeitsbeziehungen.
  • Aspekte können eines oder mehrere der nachfolgenden Merkmale umfassen.
  • Die zweidimensionale Datenstruktur umfasst eine Matrix.
  • Das Verfahren weist ferner ein Extrahieren von Konfigurationsinformation aus dem Bitstrom auf, die zumindest eine Viewidentifizierungsinformation, die einen Referenzview angibt, und/oder eine Viewanzahlinformation, die die Anzahl der Views angibt und/oder eine Viewebeneninformation für das zur Verfügung Stellen einer Viewskalierung, und/oder eine Viewanordnungsinformation, die eine Kameraanordnung angibt.
  • Die Viewebeneninformation entspricht mehreren Ebenen, die Views entsprechend einer hierarchischen View-Vorhersagestruktur unter den Views des Multiview-Videosignals zugeordnet sind.
  • Mehrere Bereiche eines gegebenen Bildes von Bildern eines gegebenen Views sind mit entsprechenden Identifikatoren verknüpft, die eine entsprechende Ebene angeben.
  • Die mehreren Bereiche entsprechen selbständigen Slices des gegebenen Bildes.
  • Jedes Slice entspricht einem Vollbild.
  • Bilder eines Views, dem eine gegebene Ebene zugeordnet ist, werden aus Bildern eines Views vorhergesagt, dem eine niedrigere Ebene als die gegebene Ebene zugeordnet ist.
  • Bilder eines einzelnen Views, dem die niedrigste Ebene zugeordnet ist, werden nicht aus Bildern einer anderen Ebene vorhergesagt.
  • Die hierarchische View-Vorhersagestruktur umfasst einen einzelnen Basisview und mehrere Hilfsviews, wobei Bilder in einem View einer ersten Ebene auf der Basis von Bildern in dem Basisview vorhergesagt werden und Bilder in einem View einer gegebenen höheren Ebene auf der Basis von Views vorhergesagt werden, die sich in niedrigeren Ebenen als der Ebene des Views der gegebenen höheren Ebene befinden.
  • Gemäß einem anderen Aspekt umfasst ein Verfahren zum Codieren eines Videosignals für jede der jeweiligen Decodierverfahren im Allgemeinen ein Erzeugen eines Bitstroms, der zum Decodieren in das Videosignal durch das jeweilige Decodierverfahren ausgebildet ist. Zum Beispiel weist gemäß einem anderen Aspekt ein Verfahren zum Codieren eines Bitstroms im Allgemeinen ein Ausbilden des Bitstroms in Übereinstimmung mit einem ersten Profil auf, das eine Auswahl aus einem Profilsatz repräsentiert, der mehrere Profile für Einzelview-Videosignale und wenigstens ein Profil für ein Multiview-Videosignal enthält, sowie Profilinformation, die das erste Profil identifiziert. Gemäß einem anderen Aspekt weist ein Verfahren zum Codieren eines Bitstroms im Allgemeinen ein Ausbilden des Bitstroms entsprechend den Abhängigkeitsbeziehungen zwischen den jeweiligen Views und View-Abhängigkeitsinformationen auf, die Abhängigkeitsbeziehungen in einer zweidimensionalen Datenstruktur repräsentieren.
  • Gemäß einem anderen Aspekt weist für jede der jeweiligen Decodierverfahren ein auf einem computerlesbaren Medium gespeichertes Computerprogramm im Allgemeinen Anweisungen auf, die einen Computer zur Ausführung des jeweiligen Decodierverfahrens veranlassen.
  • Gemäß einem anderen Aspekt können bei jedem der jeweiligen Decodierverfahren auf einem maschinenlesbaren Informationsträger befindliche Bilddaten im Allgemeinen durch das jeweilige Decodierverfahren in ein Videosignal decodiert werden.
  • Gemäß einem weiteren Aspekt weist für jedes der jeweiligen Decodierverfahren ein Decoder im Allgemeinen eine Einrichtung zur Ausführung des jeweiligen Decodierverfahrens auf.
  • Gemäß einem weiteren Aspekt weist für jedes der jeweiligen Decodierverfahren ein Codierer im Allgemeinen eine Einrichtung zum Erzeugen eines Bitstroms auf, der zum Decodieren in ein Videosignal mithilfe des jeweiligen Decodierverfahrens ausgebildet ist.
  • Gemäß einem weiteren Aspekt weist ein Verfahren zum Codieren einer Multiview-Sequenz im Allgemeinen ein Erzeugen eines Bitstroms durch Codieren von bei mehreren Views (d. h. Multiview) erfassten Bilder auf, wobei die Anzahl der Multiviews (m) auf 2n-1 < m ≤ 2n festgesetzt ist, und der Bitstrom einen einzelnen Basisview-Bitstrom und N hierarchische Hilfsview-Bitströme umfasst.
  • Gemäß einem anderen Aspekt wird allgemein ein Verfahren zum Codieren einer Multiview-Sequenz angegeben, die ein Erzeugen eines Bitstroms durch Codieren von Bildern aufweist, die bei mehreren zweidimensionalen (2D) Views (d. h. 2D-Multiview) erfasst wurden, wobei, wenn die Anzahl (m) des 2D-Multiview auf einer horizontalen Achse auf 2n-1 < m ≤ 2n festgesetzt ist und die Anzahl (p) des 2D-Multiview auf einer vertikalen Achse auf 2k-1 < p ≤ 2k festgesetzt ist, der Bitstrom einen einzelnen Basisview-Bitstrom und (n + k) hierarchische Hilfsview-Bitströme umfasst.
  • Gemäß einem weiteren Aspekt, wird allgemein ein Verfahren zum Decodieren einer Multiview-Sequenz angegeben, das ein Empfangen eines codierten Bitstroms von Bildern, die bei mehreren Views (d. h. Multiview) erfasst wurden, wobei der Bitstrom, wenn die Anzahl des Multiview (m) auf 2n-1 < m ≤ 2n festgesetzt ist, einen einzelnen Basisview-Bitstrom und n hierarchische Hilfsview-Bitströme umfasst, und ein selektives Decodieren des Basisview-Stroms und/oder der n hierarchischen Hilfsview-Bitströme entsprechend dem empfangenen Bitstrom aufweist.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Decodieren einer Multiview-Sequenz angegeben, das ein Empfangen eines Bitstroms codierter Bilder, die bei mehreren zweidimensionalen (2D) Views (d. h. 2D-Multiview) erfasst wurden, wobei die Anzahl (m) der 2D-Multiview auf einer horizontalen Achse auf 2n-1 < m ≤ 2n festgesetzt ist und die Anzahl (p) des 2D-Multiview auf einer vertikalen Achse auf 2k-1 < p ≤ 2k festgesetzt ist, der Bitstrom einen einzelnen Basisview-Bitstrom und (n + k) hierarchische Hilfsview-Bitströme umfasst, und ein selektives Decodieren des Basisview-Bitstroms und/oder der (n + k) hierarchischen Hilfsview-Bitströme entsprechend dem empfangenen Bitstrom aufweist.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Codieren einer Multiview-Sequenz angegeben, die ein Erzeugen eines Bitstroms durch Codieren von Bildern aufweist, die bei m Views (d. h. Multiview von m) erfasst wurden, wobei der Bitstrom einen einzelnen Basisview-Bitstrom und zumindest einen Hilfsview-Bitstrom umfasst, beide Enden des Multiview jeweils als erste Views festsetzt werden, ein Zentralview des Multiview auf einen zweiten View gesetzt wird, durch Überspringen von zumindest einem View in beide Richtungen auf Basis des zweiten Views der Reihe nach angeordnete Views jeweils als dritte Views gesetzt werden, die von den ersten bis dritten Views verschiedenen anderen Views jeweils als vierte Views gesetzt werden und ein beliebiger der ersten bis dritten Views als Basisview zum unabhängigen Codieren bestimmt wird, während die verbleibenden, vom Basisview verschiedenen Views als Hilfsviews zur Vorhersagecodierung (predictive coding) festgesetzt werden.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Codieren einer Multiview-Sequenz angegeben, das ein Erzeugen eines Bitstroms durch Codieren von Bildern aufweist, die bei m Views (d. h. Multiview von m) erfasst wurden, wobei der Bitstrom einen einzelnen Basisview-Bitstrom und zumindest einen Hilfsview-Bitstrom umfasst, die Position des Basisview auf einen an einem zentralen Teil des Multiview gelegenen View gesetzt wird, Positionen eines zweiten Hilfsviews auf Views gesetzt werden, die an beiden Enden des Multiview angeordnet sind, und Positionen eines ersten Hilfsview durch Überspringen von zumindest einem View in beide Richtungen auf Basis des Basisview der Reihe nach angeordnet werden.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Decodieren einer Multiview-Sequenz angegeben, die ein Empfangen eines codierten Bitstroms von Bildern aufweist, die bei m Views (d. h. Multiview von m) erfasst wurden, wobei der Bitstrom einen einzelnen Basisview-Bitstrom und zumindest einen Hilfsview-Bitstrom umfasst, ein Basisview-Bild von dem empfangenen Bitstrom durch unabhängiges Decodieren von Daten eines Zentralviews des Multiviews rekonstruiert wird, ein Bild eines ersten Hilfsviews unter Verwendung des Basisview-Bildes aus dem empfangenen Bitstrom rekonstruiert wird, wobei der erste Hilfsview von Views gebildet wird, die durch Überspringen von zumindest einem View in beide Richtungen auf Basis des Basisview der Reihe nach angeordnet sind, und wobei ein Bild des zweiten Hilfsviews unter Verwendung des Basisview-Bildes aus dem empfangenen Bitstrom rekonstruiert wird, wobei die zweiten Hilfsviews von Views gebildet werden, die zu beiden Seiten des Multiview angeordnet sind.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Decodieren einer Multiview-Sequenz angegeben, die ein Empfangen eines codierten Bitstroms von Bildern, die bei m Views (d. h. Multiview von m) erfasst wurden, wobei der Bitstrom einen einzelnen Basisview-Bitstrom und zumindest einen Hilfsview-Bitstrom umfasst, ein Auslesen von Positionsinformation eines Basisviews aus dem empfangenen Bitstrom, ein Erfassen der Positionen des Basisview und des Hilfsview über die Positionsinformation und ein Rekonstruieren von Bildern des Basisview und des Hilfsview aufweist, wobei die Positionsinformation des Basisview auf einen beliebigen der zu beiden Seiten des Multiview gelegenen ersten View, einen am Zentrum des Multiview gelegenen zweiten View und einen durch Überspringen von zumindest einem in beide Richtungen auf Basis des zweiten Views der Reihe nach angeordneten dritten Views hinweist.
  • Gemäß einem weiteren Aspekt umfasst ein Verfahren zum Codieren einer Videosequenz im Allgemeinen ein Auswählen von zumindest einem Profil aus mehreren Profilen, wenn ein Bitstrom erzeugt wird, sowie ein Einbinden von zumindest einer mit einer Videosequenz verknüpften Konfigurationsinformation in das Profil.
  • Gemäß einem weiteren Aspekt wird allgemein ein Verfahren zum Decodieren einer Videosequenz angegeben, das ein Extrahieren von zumindest einer Profilinformation aus einem empfangenen Bitstrom, ein Extrahieren von zumindest einer in dem Profil enthaltenen Konfigurationsinformation auf Basis der extrahierten Profilinformation und ein Decodieren des Bitstroms unter Verwendung der extrahierten Konfigurationsinformation aufweist.
  • Gemäß einem weiteren Aspekt wird allgemein eine Vorrichtung zum Codieren einer Videosequenz angegeben, die eine Einrichtung zur Auswahl von zumindest einem Profil aus mehreren Profilen, wenn ein Bitstrom erzeugt wird, und eine Einrichtung zur Einbindung von zumindest einer Konfigurationsinformation der empfangenen Videosequenz in das ausgewählte Profil aufweist.
  • Gemäß einem weiteren Aspekt wird allgemein eine Vorrichtung zum Decodieren einer Videosequenz angegeben, die eine Einrichtung zum Extrahieren von zumindest einer Profilinformation aus dem empfangenen Bitstrom, eine Einrichtung zum Extrahieren von zumindest einer in dem Profil enthaltenen Konfigurationsinformation auf Basis der extrahierten Profilinformation und eine Einrichtung zum Decodieren des Bitstroms unter Verwendung der extrahierten Konfigurationsinformation aufweist.
  • Aspekte können einen oder mehrere der nachfolgenden Vorteile aufweisen.
  • Das Verfahren zum Codieren/Decodieren einer Multiview-Sequenz, kann die Multiview-Sequenz effektiv codieren. Beim Codieren der Multiview-Sequenz können einzelne Views während dem Decodieren der Multiview-Sequenz hierarchisch dargestellt werden. Das Verfahren erstellt während dem Codieren der Multiview-Sequenz eine Vorhersagestruktur von Bildern individueller Views. Daher kann das Verfahren die Vorhersagestruktur auch bei zunehmender Multiview-Anzahl und Erweiterung der Anordnung in der selben Weise wie bei den oben erwähnten bevorzugten Ausführungsformen erweitern. Außerdem führt das Verfahren eine Viewskalierbarkeitsfunktion des Multiviews unter Verwendung einer hierarchischen Struktur so aus, dass es den Decodier-/Codiervorgang so durchführen kann, dass er sich für diverse am empfangsseitigen Ende vorhandene Anzeigevorrichtungen eignet, woraus sich die Realisierung eines effektiven Codier-/Decodiersystems ergibt.
  • Das Verfahren zum Codieren/Decodieren einer Videosequenz überträgt die "num_Views"-Information, die dem Codierer und Decoder bei der Abwicklung einer mit mehreren Kameras erfassten Multiview-Sequenz die Anzahl der Views bekannt gibt. Das Codier-/Decodierverfahren kann einen Referenzview bestimmen, der als Basis des gesamten View fungiert. Die Referenzviewsequenzen können unabhängig voneinander ohne Bezug auf andere Viewsequenzen codiert werden. Das Codier-/Decodierverfahren kann den Codier-/Decodiervorgang durch Bezug auf die "view_arrangement"-Information individuellen Anordnungen entsprechend effektiv ausführen.
  • Das Codier-/Decodierverfahren kann den Profiltyp identifizieren, kann eine Vielzahl von mit einer Videosequenz verknüpften Konfigurationen hinzufügen und kann den Codier-/Decodiervorgang unter Verwendung der hinzugefügten Information effektiv ausführen.
  • Andere Merkmale und Vorteile werden aus der nachfolgenden Beschreibung und den Ansprüchen ersichtlich.
  • Kurzbeschreibung der Figuren
  • 1 stellt ein Beispiel einer Decodiervorrichtung dar.
  • 2 stellt ein Strukturschema dar, das die Syntax eines Sequenzparametersatzes RBSP veranschaulicht.
  • 3A stellt ein Strukturschema dar, das einen Bitstrom veranschaulicht, der nur eine Sequenz aufweist.
  • 3B stellt ein Strukturdiagram dar, das einen Bitstrom veranschaulicht, der zwei Sequenzen aufweist.
  • 4A bis 4C stellen grafische Darstellungen zur Veranschaulichung exemplarischer Group of GOP(GGOP)-Strukturen dar.
  • 5 stellt ein Flussdiagram zur Veranschaulichung eines Verfahrens zum Decodieren einer Videosequenz dar.
  • 6A/6B, 7A/7B, und 8 stellen grafische Darstellungen zur Veranschaulichung von Beispielen für Multiview-Sequenz-Vorhersagestrukturen dar.
  • 9A, 9B stellen grafische Darstellungen zur Veranschaulichung einer hierarchischen Vorhersagestruktur zwischen mehreren Viewpunkten der Multiview-Sequenzdaten dar.
  • 10A, 10B stellen grafische Darstellungen zur Veranschaulichung einer Vorhersagestruktur von zweidimensionalen (2D) Multiview-Sequenzdaten dar.
  • 11A bis 11C stellen grafische Darstellungen zur Veranschaulichung einer Multiview-Sequenz-Vorhersagestruktur dar.
  • 12 stellt eine grafische Darstellung zur Veranschaulichung eines hierarchischen Codier-/Decodiersystems dar.
  • Beste Ausführungsform der Erfindung
  • Zur effektiven Handhabung einer Multiview-Sequenz enthält ein Eingangsbitstrom Information, die es einer Decodiervorrichtung ermöglicht zu bestimmen, ob sich der Eingangsbitstrom auf ein Multiviewprofil bezieht. Falls festgestellt wird, dass sich der Eingangsbitstrom auf ein Multiviewprofil bezieht, wird dem Bitstrom eine, einer Syntax entsprechende, mit der Multiview-Sequenz verknüpfte ergänzende Information hinzugefügt und zum Decoder übertragen. Die Multiviewprofil-ID kann zum Beispiel einen Profilmodus zur Bearbeitung von Multiview-Videodaten entsprechend einem Zusatz des H.264/AVC-Standards angeben.
  • Die MVC-(Multiview-Videocodier-)Technologie stellt eine Zusatztechnologie des H.264/AVC-Standards dar. Das heißt, dass eine spezifische Syntax als ergänzende Information für einen MVC-Modus hinzugefügt wird. Eine solche Novellierung zur Unterstützung der MVC-Technologie kann effektiver sein als eine alternative, bei der eine unbedingte Syntax verwendet wird. Falls der Profil-Identifikator der AVC-Technologie zum Beispiel auf ein Multiviewprofil hinweist, kann das Anfügen einer Multiview-Sequenzinformation die Codierleistung erhöhen.
  • Der Sequenzparametersatz (SPS) eines H.264/AVC-Bitstroms ist ein Beispiel für eine Headerinformation, die eine mit der Codierung der Gesamtsequenz verknüpfte Information (z.B. ein Profil und eine Ebene) umfasst.
  • Die Gesamtheit der komprimierten Laufbilder (d. h. eine Sequenz) kann an einem Sequenzheader so beginnen, dass ein der Headerinformation entsprechender Sequenzparametersatz (SPS) früher am Decoder eintrifft als Daten, auf die durch den Parametersatz Bezug genommen wird. In der Folge fungiert der Sequenzparametersatz RBSP am Eintrag S1 (2) als Headerinformation komprimierter Daten von Laufbildern. Falls der Bitstrom empfangen wird, identifiziert die Profil-ID-Information "profile_idc", welches der Profile unter den mehreren Profilen zu dem empfangenen Bitstrom gehört.
  • Die Profil-ID-Information "profile_idc" kann zum Beispiel auf "MULTI_VIEW_PROFILE" gesetzt werden, so dass die, die Profil-ID-Information enthaltende, Syntax bestimmen kann, ob sich der empfangene Bitstrom auf ein Multiview-Profil bezieht. Die nachfolgende Konfigurationsinformation kann hinzugefügt werden, wenn sich der empfangene Bitstrom auf das Multiview-Profil bezieht.
  • 1 stellt ein Blockschema zur Veranschaulichung eines Beispiels für eine Decodiervorrichtung (oder "Decoder") eines Multiview-Videosystems zum Decodieren eines Videosignals, das eine Multiview-Videosequenz enthält, dar. Das Multiview-Videosystem umfasst eine entsprechende Codiervorrichtung (oder "Codierer"), um die Multiview-Videosequenz als Bitstrom zur Verfügung zu stellen, der auf einem maschinenlesbaren Informationsträger (z.B. ein maschinenlesbares Speichermedium oder ein maschinenlesbares Energiesignal, das zwischen einem Sender und einem Empfänger übertragen wird) manifestierte codierte Bilddaten umfasst.
  • Wie 1 zu entnehmen ist, umfasst die Decodiervorrichtung eine Parsereinheit 10, eine Entropiedecodiereinheit 11, eine inverse Quantisierungs-/inverse Transformationseinheit 12, eine Inter-Vorhersageeinheit 13, eine Intra-Vorhersageeinheit 14, einen Entblockungs-Filter (deblocking filter) 15 und einen Pufferspeicher 16 für decodierte Bilder.
  • Die Inter-Vorhersageeinheit 13 umfasst eine Bewegungskompensationseinheit 17, eine Beleuchtungskompensationseinheit 18 und eine Beleuchtungskompensationsoffsetvorhersageeinheit 19.
  • Die Parsereinheit 10 leistet eine Syntaxanalyse der in NAL-Einheiten empfangenen Videosequenz zum Decodieren der empfangenen Videosequenz. Typischerweise werden einer oder mehrerer Sequenzparametersätze und Bildparametersätze an einen Decoder übertragen, bevor ein Sliceheader und Slicedaten decodiert werden. In diesem Fall kann der NAL-Header oder ein Erweiterungsbereich des NAL-Headers eine Vielzahl von Konfigurationsinformationen umfassen, zum Beispiel zeitliche Ebeneninformation, View-Ebeneninformation, Ankerbild(anchor picture)-ID-Information und View-ID-Information et cetera.
  • Der Ausdruck "Zeitebeneninformation" ist ein Beispiel für eine hierarchische Strukturinformation zum Bereitstellen einer zeitlichen Skalierbarkeit aus dem Videosignal so, dass einem Benutzer Sequenzen einer Vielzahl von Zeitzonen mittels der oben erwähnten zeitlichen Ebeneninformation zur Verfügung gestellt werden können.
  • Der Ausdruck "View-Ebeneninformation" ist ein Beispiel für eine hierarchische Strukturinformation zum Bereitstellen einer View-Skalierbarkeit aus dem Videosignal. Die Multiview-Videosequenz kann die zeitliche Ebene und die Viewebene so definieren, dass dem Benutzer entsprechend der definierten zeitlichen Ebene und Viewebene eine Vielzahl von zeitlichen Sequenzen und Viewsequenzen zur Verfügung gestellt werden können.
  • Auf diese Weise kann der Benutzer, falls die Ebeneninformation wie oben beschrieben definiert ist, die zeitliche Skalierbarkeit und die Viewskalierbarkeit verwenden. Der Benutzer kann eine Sequenz daher einer gewünschten Zeit bzw. Ansicht (view) entsprechend betrachten oder kann eine Sequenz entsprechend einer anderen Beschränkung betrachten. Die oben erwähnte Ebeneninformation kann Referenzbedingungen entsprechend auf vielfältige Weise erstellt werden. Zum Beispiel kann die Ebeneninformation entsprechend einer Kameraposition geändert werden und auch einem Kameraanordnungstyp entsprechend geändert werden. Außerdem kann die Ebeneninformation auch willkürlich ohne spezielle Referenz erstellt werden.
  • Der Ausdruck "Ankerbild" bezeichnet ein codiertes Bild, in dem sich alle Slices ausschließlich auf Slices in einem aktuellen View und nicht auf Slices in anderen Views beziehen. Zum Multview-Sequenzdecodieren kann ein wahlfreier Zugriff (random access) zwischen den Views verwendet werden.
  • Zur Ausführung eines Direktzugriffvorgangs (random access process) für den Zugriff auf Daten eines speziellen Views ohne Erfordernis eines Decodierens einer größeren Datenmenge kann eine Ankerbild-ID-Information verwendet werden.
  • Der Ausdruck "View-ID-Information" bezeichnet eine spezielle Information zur Unterscheidung zwischen einem Bild eines aktuellen View und einem Bild eines anderen Views. Zur Unterscheidung eines Bildes von anderen Bildern beim Codieren eines Videosequenzsignals kann ein Bildfolgezähler (picture order count, POC) und eine Einzelbildnummerinformation (frame number information, frame_num) verwendet werden.
  • Wenn eine aktuelle Sequenz als eine Multiview-Videosequenz bestimmt wird, kann eine Inter-View-Vorhersage durchgeführt werden. Zur Unterscheidung eines Bildes eines aktuellen Views von einem Bild eines anderen Views wird ein Identifikator verwendet.
  • Zur Angabe eines Views eines Bildes kann ein View-Identifikator definiert werden. Die Decodervorrichtung kann eine Information eines Bildes in einem von einem View des aktuellen Bildes verschiedenen View unter Verwendung des oben erwähnten View-Identifikators erhalten, so dass es das Videosignal unter Verwendung der Information des Bildes decodieren kann. Der oben erwähnte View-Identifikator kann auf den gesamten Codier-/Decodiervorgang des Videosignals angewandt werden. Ferner kann der oben erwähnte View-Identifikator auch auf den Multiview-Videocodiervorgang unter Verwendung der Einzelbildnummerinformation "frame_num", die einen View berücksichtigt, angewandt werden.
  • Üblicherweise weist die Multiviewsequenz eine große Datenmenge auf, wobei zur Verarbeitung der großen Datenmenge eine hierarchische Codierfunktion eines jeden View (auch "View-Skalierbarkeit" genannt) verwendet werden kann. Für die Ausführung der View-Skalierbarkeitsfunktion kann eine Vorhersagestruktur bestimmt werden, die die Views der Multiviewsequenz berücksichtigt.
  • Die oben erwähnte Vorhersagestruktur kann durch Strukturieren der Vorhersagereihenfolge oder Richtung der mehreren Viewsequenzen definiert werden. Sind zum Beispiel mehrere zu codierende Viewsequenzen gegeben, dann wird eine Zentralposition der Gesamtanordnung als Basisview so gesetzt, dass zu codierende Viewsequenzen hierarchisch ausgewählt werden können. Als Basisview können das Ende der Gesamtanordnung oder andere Teile festgelegt werden.
  • Wenn sich die Anzahl der Kameraviews in Form einer Zweierpotenz darstellen lässt, kann eine hierarchische Vorhersagestruktur zwischen mehreren Viewsequenzen auf Basis des oben erwähnten Falls der durch eine Zweierpotenz bezeichneten Kameraviews gebildet werden. Falls dagegen die Anzahl der Kameraviews nicht durch eine Zweierpotenz gekennzeichnet ist, können virtuelle Views verwendet werden, und die Vorhersagestruktur kann auf Basis der virtuellen Views gebildet werden. Wenn die Kameraanordnung eine zweidimensionale Anordnung wiedergibt, kann die Vorhersagereihenfolge durch Richtungsänderungen in eine horizontale oder vertikale Richtung erstellt werden.
  • Eine Entropie-Decodierung eines geparsten Bitstroms erfolgt an einer Entropie-Decodiereinheit (entropy decoding unit) 11, wobei Daten wie beispielsweise ein Koeffizient eines jeden Makroblocks, ein Bewegungsvektor, usw. extrahiert werden. Die inverse Quantisierungs-/inverse Transformationseinheit 12 multipliziert einen empfangenen Quantisierungswert mit einer vorgegebenen Konstante, um einen transformierten Koeffizientenwert zu akquirieren, und führt eine inverse Transformation des gewonnenen Koeffizientenwerts so durch, dass sie einen Bildpunktwert rekonstruiert. Die Inter-Vorhersageeinheit 13 führt eine Inter-Vorhersagefunktion von decodierten Stücken des aktuellen Bildes unter Verwendung des rekonstruierten Bildpunktwerts aus.
  • Zur selben Zeit wird der Entblockungsfilter 15 auf jeden decodierten Makroblock angewandt, um den Grad der Blockverzerrung zu reduzieren. Der Entblockungsfilter 15 führt eine Glättung der Blockkanten so durch, dass eine Bildqualität des decodierten Einzelbildes verbessert wird. Die Auswahl eines Filtervorgangs hängt von Randstärke und Gradient eines nahe des Randes angeordneten Bildstückes ab. Die gefilterten Bilder werden in dem Pufferspeicher 16 für decodierte Bilder so gespeichert, dass sie ausgegeben oder als Referenzbilder verwendet werden können.
  • Der Pufferspeicher 16 für decodierte Bilder speichert oder gibt vorcodierte Bilder aus, um die Inter-Vorhersagefunktion auszuführen. Hierbei werden die Einzelbildnummerinformation "frame_num" und POC(Bildfolgezähler)-Information der Bilder zum Speichern oder Ausgeben der vorcodierten Bilder verwendet. Im Falle der MVC-Technologie können in den oben erwähnten vorcodierten Bildern Bilder eines anderen Views enthalten sein. Daher kann zur Verwendung der oben erwähnten Bilder als Referenzbilder bei Bedarf nicht nur die "frame_num"- und die POC-Information, sondern auch ein View-Identifikator, der einen Bildview angibt, verwendet werden.
  • Die Inter-Vorhersageeinheit 13 führt die Inter-Vorhersage unter Verwendung der in dem Pufferspeicher 16 für decodierte Bilder gespeicherten Referenzbilder durch. Der inter-codierte Makroblock kann in Makroblock-Partitionen unterteilt sein. Jede Makroblock-Partition kann durch ein oder zwei Referenzbilder vorhergesagt werden.
  • Die Bewegungskompensationseinheit 17 kompensiert eine Bewegung des aktuellen Blocks unter Verwendung der von der Entropie-Decodiereinheit 11 erhaltenen Information. Die Bewegungskompensationseinheit 17 extrahiert aus dem Videosignal Bewegungsvektoren von zum aktuellen Block benachbarten Blocks und erhält eine Bewegungsvektorvorhersage des aktuellen Blocks. Die Bewegungskompensationseinheit 17 kompensiert die Bewegung des aktuellen Blocks durch Verwendung eines Differenzwertes zwischen dem Bewegungsvektor und einer aus dem Videosignal der erhaltenen Bewegungsvektorvorhersage extrahierten Vorhersage. Die oben erwähnte Bewegungskompensation kann mithilfe von nur einem Referenzbild durchgeführt werden, sie kann aber auch mithilfe von mehreren Referenzbildern durchgeführt werden.
  • Daher kann, falls die oben erwähnten Referenzbilder als Bilder von anderen, zum aktuellen View verschiedenen Views bestimmt werden, die Bewegungskompensation entsprechend einem die anderen Views anzeigenden View-Identifikator durchgeführt werden.
  • Ein Direktmodus bezeichnet einen Codiermodus zum Vorhersagen von Bewegungsinformation des aktuellen Blocks auf Basis der Bewegungsinformation eines vollständig decodierten Blocks. Der oben erwähnte Direktmodus kann die Anzahl der zum Codieren der Bewegungsinformation erforderlichen Anzahl an Bit verringern, woraus sich eine erhöhte Komprimierungseffizienz ergibt.
  • Zum Beispiel sagt ein zeitlicher Direktmodus eine Bewegungsinformation des aktuellen Blocks unter Verwendung einer Korrelation der Bewegungsinformation in einer zeitlichen Richtung voraus. Ähnlich dem zeitlichen Direktmodus kann der Decoder die Bewegungsinformation des aktuellen Blocks unter Verwendung einer Korrelation der Bewegungsinformation in einer View-Richtung vorhersagen.
  • Falls der empfangene Bitstrom einer Multiview-Sequenz entspricht, können Viewsequenzen jeweils durch verschiedene Kameras so erfasst worden sein, dass aufgrund von, bezüglich der Kameras, internen oder externen Faktoren ein Beleuchtungsunterschied auftreten kann. Um die mit dem Beleuchtungsunterschied verknüpfte potentielle Ineffizienz zu reduzieren, führt eine Beleuchtungskompensationseinheit 18 eine Beleuchtungskompensationsfunktion aus.
  • Bei der Ausführung der Beleuchtungskompensationsfunktion kann eine Flag-Information verwendet werden, die anzeigt, ob eine Beleuchtungskompensation bei einer bestimmten Ebene eines Videosignals ausgeführt wird. Die Beleuchtungskompensationseinheit 18 kann zum Beispiel die Beleuchtungskompensationsfunktion unter Verwendung einer Flag-Information auswählen, die angibt, ob die Beleuchtungskompensation eines entsprechenden Slices oder Makroblocks ausgeführt wird. Ferner kann das oben erwähnte Verfahren zur Ausführung der Beleuchtungskompensation unter Verwendung der oben erwähnten Flag-Information auf eine Vielzahl von Makroblocktypen (z.B. einen Inter-16×16-Modus, einen B-Überspring-Modus, einen Direktmodus, usw.) angewandt werden.
  • Zur Rekonstruktion des aktuellen Blocks bei einer Durchführung der Beleuchtungskompensation kann eine Information eines benachbarten Blocks oder Information eines Blocks in zu einem View des aktuellen Blocks verschiedenen Views verwendet werden, wobei auch ein Offsetwert des aktuellen Blocks verwendet werden kann.
  • Hierbei bezeichnet der Offsetwert des aktuellen Blocks einen Differenzwert zwischen einem durchschnittlichen Bildpunktwert des aktuellen Blocks und einem durchschnittlichen Bildpunktwert eines dem aktuellen Block zugehörigen Referenzblocks. Um ein Beispiel für die Verwendung des oben erwähnten Offsetwerts anzugeben, kann eine Vorhersage des Offsetwerts des aktuellen Blocks unter Verwendung des zum aktuellen Block benachbarten Blocks erhalten werden, wobei ein Residuumwert zwischen dem Offsetwert und der Vorhersage verwendet werden kann. Daher kann der Decoder den Offsetwert des aktuellen Blocks unter Verwendung des Residuumwerts und der Vorhersage rekonstruieren.
  • Um die Vorhersage des aktuellen Blocks zu erhalten, kann bei Bedarf Information der benachbarten Blocks verwendet werden.
  • Beispielsweise kann der Offsetwert des aktuellen Blocks unter Verwendung des Offsetwerts eines Nachbarblocks vorhergesagt werden. Vor einem Vorhersagen eines Offsetwerts des aktuellen Blocks wird bestimmt, ob der Referenzindex des aktuellen Blocks gleich einem Referenzindex des Nachbarblocks ist. Entsprechend den Bestimmungsergebnis kann die Beleuchtungskompensationseinheit 18 bestimmen, welcher der benachbarten Blöcke verwendet werden wird bzw. welcher Wert verwendet werden wird.
  • Die Beleuchtungskompensationseinheit 18 kann die Beleuchtungskompensation unter Verwendung eines Vorhersagetyps des aktuellen Blocks durchführen. Falls der aktuelle Block mittels zweier Referenzblöcke vorhersagecodiert ist, kann die Beleuchtungskompensationseinheit 18 einen zu jedem Referenzblock gehörenden Offsetwert unter Verwendung des Offsetwerts des aktuellen Blocks erhalten.
  • Wie oben beschrieben, werden die von der Beleuchtungskompensation und Bewegungskompensation akquirierten Inter-Vorhersagebilder oder Intra-Vorhersagebilder entsprechend einem Vorhersagemodus ausgewählt, und das aktuelle Bild rekonstruiert.
  • In diesem Dokument werden später eine Vielzahl von Beispielen von Codier-/Decodierverfahren zur Rekonstruktion eines aktuellen Bildes beschrieben. 2 stellt ein Strukturschema dar, das eine Syntax eines Sequenzparametersatzes RBSP veranschaulicht.
  • Wie aus 2 ersichtlich, bezeichnet ein Sequenzparametersatz eine Headerfunktion, die mit der Codierung der Gesamtsequenz verknüpfte Information (z.B. ein Profil und eine Ebene) umfasst.
  • Die gesamte komprimierte Sequenz kann an einem Sequenzheader beginnen, so dass ein der Headerinformation entsprechendes Sequenzparametersatz früher am Decoder eintrifft, als sich auf den Parametersatz beziehende Daten. In der Folge fungiert der Sequenzparametersatz (RBSP) bei Schritt S1 als mit den resultierenden Daten komprimierter Laufbilder verknüpfte Headerinformation. In Schritt S2 bestimmt die "profile_idc"-Information bei Erhalt des Bitstroms, welches der Profile von den mehreren Profilen dem empfangenen Bitstrom entspricht. Wenn "profile_idc" 16 zum Beispiel auf "66" gesetzt ist, dann gibt dies an, dass der empfangene Bistrom auf einem Basisprofil basiert. Wenn "profile_idc" auf "77" gesetzt ist, gibt dies an, dass der empfangene Bitstrom auf einem Hauptprofil basiert. Falls "profile_idc" auf "88" gesetzt ist, so gibt es an, dass der empfangene Bitstrom auf einem erweiterten Profil basiert. Schritt S3 verwendet die Syntax "If(profile_idc) == MULTI_VIEW_PROFILE)", um zu Bestimmen, ob sich der empfangene Bitstrom auf ein Multiviewprofil bezieht.
  • Falls sich der empfangene Bitstrom in Schritt S3 auf das Multiviewprofil bezieht, kann dem empfangenen Bitstrom eine Vielzahl von Informationen der Multiviewsequenzen hinzugefügt werden.
  • Die "reference_view"-Information repräsentiert einen Referenzview eines gesamten Views und kann dem Bitstrom eine mit dem Referenzview verknüpfte Information hinzufügen. Üblicherweise codiert oder decodiert eine MVC-Technik eine Referenzviewsequenz unter Verwendung eines Codierschemas, das für eine Einzelsequenz verwendet werden kann (z.B. den H.264/AVC-Codec). Wenn der Referenzview zu der Syntax hinzugefügt wird, gibt die Syntax an, welcher View von den vielen Views als Referenzview gesetzt werden wird.
  • Als oben erwähnter Referenzview fungiert ein als Codierreferenz fungierender Basisview. Bilder des Referenzviews werden unabhängig ohne Bezugnahme auf ein Bild eines anderen View codiert.
  • Die Anzahl der Views (num_views) kann spezielle Information hinzufügen, die die Anzahl der durch mehrere Kameras erfassten Multiviews angibt. Die Viewzahl (num_views) einer jeden Sequenz kann auf unterschiedliche Weise gesetzt werden. Die "num_views"-Information wird an einem Codierer oder Decoder übertragen, so dass der Codierer und Decoder in Schritt S5 die "num_views"-Information ungehindert verwenden können.
  • Eine Kameraanordnung (view_arrangement) bezeichnet einen Anordnungstyp der Kameras beim Erfassen einer Sequenz. Durch Hinzufügen von "view_arrangement"-Information zur Syntax kann der Codiervorgang effektiv so ausgeführt werden, dass er für individuelle Anordnungen geeignet ist. Sodann kann, wenn ein neues Codierverfahren entwickelt wird, eine unterschiedliche "view_arrangement"-Information verwendet werden.
  • Die Einzelbildzahl "temporal_units_size" bezeichnet die Anzahl von nacheinander codierten/decodierten Einzelbildern eines jeden Views. Falls erforderlich kann auch eine spezielle Information zur Anzeige der Einzelbildzahl hinzugefügt werden. Etwas ausführlicher zeigt die "temporal_units_size"-Information, unter der Voraussetzung, dass ein aktueller N-ter View codiert/decodiert wird und ein M-ter View als nächstes codiert/decodiert werden wird, an, wie viele Einzelbider des N-ten Views zunächst verarbeitet werden, bevor dann der M-te View verarbeitet wird. Durch die "temporal_units_size"-Information und die "num_views"-Information kann das System bestimmen, welche Views von den mehreren Views zu jedem Einzelbild gehören. Falls als "temporal_units_size"-Information eine erste Länge von dem I-Slice zu dem P-Slice einer jeden Viewsequenz, eine zweite Länge zwischen den P-Slices oder eine einem vielfachen der ersten und der zweiten Länge entsprechenden Länge gesetzt wird, kann die "temporal-units_size"-Information bei nur einem View verarbeitet werden und dann mit dem nächsten View fortfahren. Die "temporal_units_size"-Information kann gleich oder kleiner als die herkömmliche GOP-Länge sein. Die 4B~4C zeigen zum Beispiel die GGOP-Struktur zur Erläuterung des "temporal_units_size"-Konzepts. In 4B ist die "temporal_units_size"-Information hierbei auf "3" gesetzt. In 4C ist die "temporal_units_size"-Information auf "1" gesetzt.
  • Bei einigen Beispielen ordnet das MVC-Verfahren mehrere Einzelbilder so entlang einer Zeitachse und einer Viewachse an, dass es einer "temporal_units_size" von "1" entsprechend bei einem jeden der Views am selben Zeitwert jeweils ein einzelnes Einzelbild verarbeiten kann und dann bei einem jeden der Views am nächsten Zeitwert ein einzelnes Einzelbild verarbeiten kann. Als Alternative kann das MVC-Verfahren einer "temporal_units_size" von "N" entsprechend N Einzelbilder aus dem selben View verarbeiten und dann die N Einzelbilder des nächsten Views verarbeiten. Da üblicherweise zumindest ein Einzelbild verarbeitet wird, kann der Syntax "temporal_units_size_minus1" hinzugefügt werden, um darzustellen, wie viele zusätzliche Einzelbilder verarbeitet werden. Die oben erwähnten Beispiele können daher in Schritt S7 jeweils durch "temporal_units_size_minus1 = 0" und "temporal_units_size_minus1 = N-1" bezeichnet werden.
  • Die Profile des herkömmlichen Codierschemas weisen kein gemeinsames Profil auf, so dass ferner ein Flag verwendet wird, um die Kompatibilität anzuzeigen. "constraint_set*_flag"-Information gibt an, welches der Profile den Bitstrom unter Verwendung eines Decoders decodieren kann. "constraint_set0_flag"-Information gibt an, dass der Bitstrom in Schritt S8 durch einen Decoder des Basisprofils decodiert werden kann. "constraint_set1_flag"-Information gibt an, dass der Bitstrom in Schritt S9 durch einen Decoder des Hauptprofils decodiert werden kann. "constraint_set2_flag"-Information gibt an, dass der Bitstrom in Schritt S10 durch einen Decoder des erweiterten Profils decodiert werden kann. Es besteht daher ein Bedarf an einer Definition des "MULTI_VIEW_PROFILE"-Decoders, wobei der "MULTI_VIEW_PROFILE"-Decoder in Schritt S11 durch eine "constraint_set4_flag"-Information definiert werden kann.
  • Die "level_idc"-Information bezeichnet einen Ebenenidentifikator. Die "Ebene" bezeichnet allgemein die Fähigkeit des Decoders und die Komplexität des Bitstroms und bezieht sich auf die in den oben erwähnten Profilen in Schritt S12 vorgegebenen technischen Elemente.
  • Die "seq_parameter_set_id"-Information bezeichnet eine SPS(Sequenzparametersatz)-ID-Information, die in dem SPS (Sequenzparametersatz) enthalten ist, um in Schritt S13 Sequenztypen zu identifizieren.
  • 3A stellt ein Strukturschema dar, das einen Bitstrom veranschaulicht, der nur eine Sequenz enthält.
  • Wie 3A entnommen werden kann, bezeichnet der Sequenzparametersatz (SPS) eine Headerinformation, die eine mit der Gesamtsequenzcodierung verknüpfte Information (z.B. ein Profil und eine Ebene) umfasst. Die ergänzende Zusatzinformation (supplemental enhancement information, SEI) bezeichnet eine ergänzende Information, die für den Decodiervorgang einer Laufbild-(d.h. Sequenz)Codierebene nicht erforderlich ist. Der Bildparameterset (PPS) stellt eine Headerinformation dar, die einen Codiermodus des gesamten Bildes angibt. Das I-Slice führt lediglich einen Intra-Codiervorgang aus. Das P-Slice führt den Intra-Codiervorgang oder den Inter-Vorhersagecodiervorgang aus. Der Bildseparator (picture delimiter) bezeichnet eine Grenze zwischen Videobildern. Das System wendet die SPS-RBSP-Syntax auf den oben erwähnten SPS an. Daher setzt das System die oben erwähnte Syntax während einem Erzeugen des Bitstroms ein, so dass es einem gewünschten Objekt eine Vielzahl von Informationen hinzufügen kann.
  • 3B stellt eine strukturelle graphische Darstellungen dar, die einen Bitstrom veranschaulicht, der zwei Sequenzen aufweist.
  • Wie aus 3B ersichtlich, kann die H.264/AVC-Technologie eine Vielzahl von Sequenzen unter Verwendung eines einzelnen Bitstroms handhaben. In der SPS umfasst der SPS zum Identifizieren einer Sequenz SPS-ID-Information (seq_parameter_set_id). Die SPS-ID-Information ist in dem PPS (Bildparameterset) so vorgegeben, dass sie die das Bild enthaltende Sequenz identifiziert. Ferner ist die PPS-ID-Information (pic_parameter_set_id) in dem Sliceheader so vorgegeben, dass die "pic_parameter_set_id"-Information den zu verwendenden PPS identifizieren kann.
  • Zum Beispiel umfasst ein Header des Slice #1 von 3B eine in Bezug zu nehmende PPS-ID-Information (pic_parameter_set-id), die mit ➀ bezeichnet ist. Der PPS#1 umfasst die mit ➁ bezeichnete in Bezug genommene SPS-ID-Information (SPS = 1). Daher kann erkannt werden, dass das Slice #1 zur Sequenz #1 gehört. Auf diese Weise kann auch erkannt werden, dass das Slice #2 wie durch ➂ und ➃ gekennzeichnet, zur Sequenz #2 gehört. Tatsächlich werden das Basisprofil und das Hauptprofil zum Erzeugen eines neuen Videobitstroms addiert und editiert. In diesem Fall werden zwei Bitströmen unterschiedliche SPS-ID-Informationen zugeordnet. Jeder der zwei Bitströme kann bei Bedarf auch in ein Multiviewprofil umgewandelt werden.
  • 4A zeigt eine exemplarische Group Of GOP(GGOP)-Struktur (Bildgruppen-Gruppenstruktur). 4B und 4C zeigen eine GGOP-Struktur zur Erläuterung eines "temporal_units_size"-Konzepts. GOP bezeichnet eine Datengruppe von einigen Bildern. Zur effektiven Durchführung des Codierprozesses verwendet MVC das GGOP-Konzept zur Durchführung einer räumlichen Vorhersage und zeitlichen Vorhersage.
  • Falls als "temporal_units_size"-Information eine erste Länge zwischen dem I-Slice und dem P-Slice einer jeden Viewsequenz, eine zweite Länge zwischen den P-Slices, oder eine einem Vielfachen der ersten oder zweiten Länge entsprechende dritte Länge gesetzt wird, kann die "temporal_units_size"-Information bei nur einem View verarbeitet werden und kann dann zum nächsten View übergehen. Die "temporal_units_size"-Information kann gleich oder kleiner als die herkömmliche GOP-Länge sein. Zum Beispiel ist in 4B die "temporal_units_size"-Information auf "3" gesetzt. In 4C ist die "temporal_units_size"-Information auf "1" gesetzt. Insbesondere können in 4B, falls die "temporal_units_size"-Information durch "temporal_units_size > 1" gekennzeichnet ist und einer oder mehrere Views an dem I-Einzelbild beginnen, (temporal_units_size > 1) Einzelbilder verarbeitet werden. Ferner kann das System durch Bezug auf die oben erwähnte "temporal_units_size"- und "num_views"-Information erkennen, welcher der Views von den mehreren Views zu jedem Einzelbild der Gesamtsequenz gehört.
  • In 4A sind die einzelnen Einzelbilder entlang einer Zeitachse und einer Viewachse angeordnet. Die Bilder von V1~V8 zeigen jeweils eine GOP an. Die als Basis-GOP fungierende V4 wird als Referenz-GOP der anderen GOPs verwendet. Wenn die "temporal_units_size"-Information auf "1" gesetzt ist, verarbeitet das MVC-Verfahren Einzelbilder der einzelnen Views an der selben Zeitzone und kann dann die Einzelbilder der einzelnen Views an der nächsten Zeitzone aufbereiten. Die Bilder von T1~T4 geben Einzelbilder einzelner Views an der selben Zeitzone an. Mit anderen Worten kann das MVC-Verfahren zunächst die T1-Einzelbilder verarbeiten, um dann mehrere Einzelbilder in der Reihenfolge von T4 → T2 → T3 → ... bearbeiten. Wenn die "temporal_units_size"-Information auf "N" gesetzt ist, kann das MVC-Verfahren zunächst N Einzelbilder in Richtung der Zeitachse innerhalb eines einzelnen Views verarbeiten und dann die N Einzelbilder am nächsten View verarbeiten. Mit anderen Worten, wenn die "temporal_units_size"-Information auf "4" gesetzt ist, kann das MVC-Verfahren zunächst in den T1-~T4-Einzelbildern enzhaltene Einzelbilder der V4 GOP verarbeiten, und kann dann mehrere Einzelbilder in der Reihenfolge von V1 → V2 → V3 → ... verarbeiten.
  • Bei einem Erzeugen des Bitstroms nach 4A wird daher die Anzahl der Views (num_views) auf "8" gesetzt, wobei der Referenzview auf die V4 GOP (Group of Pictures, Bildergruppe) gesetzt wird. Die Anzahl der Einzelbilder (temporal_units_size) bezeichnet die Anzahl von nacheinander codierten/decodierten Einzelbildern eines jeden Views. Falls daher in 4A die Einzelbilder eines jeden View an der gleichen Zeitzone verarbeitet werden, wird die "temporal_unit_size"-Information auf "1" gesetzt. Falls innerhalb eines einzelnen Views die Einzelbilder in Richtung der Zeitachse verarbeitet werden, wird die "temporal_unit_size"-Information auf "N" gesetzt. Die oben erwähnte Information wird dem Bitstromerzeugungsvorgang hinzugefügt.
  • 5 stellt ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Decodieren einer Videosequenz dar.
  • Wie 5 zu entnehmen ist, werden aus dem empfangenen Bitstrom eine oder mehrere Profilinformationen extrahiert. Hierbei kann die extrahierte Profilinformation zumindest eines von mehreren Profilen (z.B. das Basisprofil, das Hauptprofil, und das Multiviewprofil) sein. Die oben erwähnte Profilinformation kann in Schritt S51 entsprechend den eingegangenen Videosequenzen geändert werden. Aus der extrahierten Profilinformation wird zumindest eine in dem oben erwähnten Profil enthaltene Konfigurationsinformation extrahiert. Zum Beispiel werden, wenn sich die extrahierte Profilinformation auf das Multiviewprofil bezieht, in Schritt S53 eine oder mehrere in dem Multiviewprofil enthaltene Konfigurationsinformationen (d.h. "reference_view", "num_views", "view_arrangement", und "temporal_units_size") extrahiert. Auf diese Weise wird die oben erwähnte extrahierte Information zum Decodieren des multiviewcodierten Bitstroms verwendet.
  • Die 6A6B stellen grafische Darstellungen zur Veranschaulichung einer Multiviewsequenz-Vorhersagestruktur gemäß einem ersten Beispiel dar.
  • Wie aus den 6A6B ersichtlich ist, wird die Multiviewzahl (m) unter der Voraussetzung, dass die Anzahl (m) von mehreren Viewpunkten (d.h. Multiviewzahl) auf 2n (d.h. m = 2n) gesetzt ist Bei n = 0 ist die Multiviewzahl (m) auf "1" gesetzt. Bei n = 1 ist die Multiviewzahl (m) auf "2" gesetzt. Bei n = 2 ist die Multiviewzahl (m) auf "4" gesetzt. Bei n = 3 ist die Multiviewzahl (m) auf "8" gesetzt. Daher umfasst der Bitstrom, wenn die Multiviewzahl (m) auf 2n-1 < m < 2n gesetzt ist, einen einzelnen Basisview-Bitstrom und n-hierarchische Hilfsview-Bitströme.
  • Namentlich bezeichnet der Ausdruck "Basisview" einen Referenzview unter mehreren Viewpunkten (d.h. dem Multiview). Mit anderen Worten wird eine dem Basisview enstprechende Sequenz (d.h. Laufbilder) durch allgemeine Videocodierschemata (z.B. MPEG-2, MPEG-4, H.263 und H.264, usw.) so codiert, dass diese in der Form eines selbständigen Bitstroms erzeugt wird. Der einfacheren Beschreibung halber wird dieser selbständige Bitstrom als "Basisview-Bitstrom" bezeichnet.
  • Der Ausdruck "Hilfsview" bezeichnet die verbleibenden, von dem oben erwähnten Basisview verschieden, Views der mehreren Viewpunkte (d.h. dem Multiview). Mit anderen Worten bildet eine dem Hilfsview entsprechende Sequenz einen Bitstrom durch Ausführen einer Disparitätsschätzung der Basisviewsequenz, wobei dieser Bitstrom als "Hilfsview-Bitstrom" bezeichnet wird.
  • Im Falle des Durchführens eines hierarchischen Codiervorgangs (d.h. eines Viewskalierbarkeitsvorgangs) zwischen mehreren Viewpunkten (d.h. dem Multiview) wird der oben erwähnte Hilfsview-Bitstrom in einen ersten Hilfsview-Bitstrom, einen zweiten Hilfsview-Bitstrom und einen n-ten Hilfsview-Bitstrom eingeteilt.
  • Der Ausdruck "Bitstrom" kann, soweit erforderlich, den oben erwähnten Basisview-Bitstrom und den oben erwähnten Hilfsview-Bitstrom umfassen.
  • Wenn die Multiviewzahl (m) zum Beispiel auf "8" (n = 3) gesetzt ist, umfasst der Bitstrom einen einzelnen Basisview und drei hierarchische Hilfsviews. Wenn der Bitstrom einen einzelnen Basisview und n-hierarchische Hilfsviews umfasst, wird bevorzugt, dass eine den Basisview des Multiview darstellende Position und eine den jeweiligen hierarchischen Hilfsview darstellende Position durch allgemeine Regeln definiert werden. Wie ersichtlich, bezeichnen die quadratischen Flächen der 6A6B einzelne Viewpunkte. Bei denen in den quadratischen Flächen enthaltenen Zahlensymbolen bezeichnet die Nummer "0" einen Basisview, die Nummer "1" bezeichnet einen ersten hierarchischen Hilfsview, die Nummer "2" bezeichnet einen zweiten hierarchischen Hilfsview und die Nummer "3" bezeichnet einen dritten hierarchischen Hilfsview. In diesem Beispiel der 6A6B sind als Multiviewvideosequenz ein Maximum von 8 Viewpunkten exemplarisch offenbart, es ist jedoch darauf hinzuweisen, dass die Multiviewzahl nicht auf "8" beschränkt ist und auf andere Beispiele bei Bedarf eine beliebige Multiviewzahl angewandt werden kann.
  • Wie der 6A zu entnehmen ist, werden jeweilige Basisviews und Hilfsviews durch die folgenden Regeln bestimmt. Zunächst wird die Position des Basisviews auf einen 2n-1-ten View gesetzt. Bei zum Beispiel n = 3 wird der Basisview auf einen vierten View gesetzt. Die 6A6B zeigen einen exemplarischen Fall, bei dem der Anfangsview an der äußerst rechten Seite angeordnet ist. Als Basisview wird ein, einer vierten Stelle von dem äußersten rechten View 61 entsprechender, spezieller View verwendet. Vorzugsweise kann die Position des Basisviews an einer speziellen Position in der Nähe eines innerhalb des Multiview zentralen Views angeordnet werden oder kann auf den zentralen View des Multiviews gesetzt werden, da der Basisview als Referenz zur Durchführung des (Vorhersagechiffrier-) oder Vorhersagecodiervorgangs von anderen Hilfsviews verwendet werden kann.
  • Der äußerst linke View wird, um ein weiteres Beispiel anzugeben, als Anfangsview gesetzt, wobei die Anzahl (m) der Viewpunkte (d. h. die Multiviewzahl) in der Reihenfolge von m = 0 → m = 1 → m = 2 → m = 3, ... angeordnet werden kann. Zum Beispiel kann bei n = 3 die 2n-1-te Multiviewzahl (d. h. m = 4) als Basisview gesetzt werden.
  • Die Position des ersten hierarchischen Hilfsview kann auf einen linksseitigen View gesetzt werden, der zu dem oben erwähnten Basisview in einem Ausmaß von 2n-2 beabstandet ist, oder auf einen rechtsseitigen View, der von dem oben erwähnten Basisview in einem Ausmaß von 2n-2 beabstandet ist. 6A zeigt zum Beispiel einen exemplarischen Fall, bei dem ein von dem Basisview um 2n-2 Views in Richtung links beabstandeter Viewpunkt (d. h. zwei Viewpunkte im Fall von n = 3) als erster hierarchischer Hilfsview festgelegt wird. Demgegenüber zeigt 6B einen exemplarischen Fall, bei dem ein von dem Basisview um 2n-2 Views in Richtung rechts beabstandeter Viewpunkt als erster hierarchischer Hilfsview festgelegt wird. In dem oben erwähnten Beispiel ist die Nummer des ersten hierarchischen Hilfsviews auf "1" gesetzt.
  • Die Position des zweiten hierarchischen Hilfsview kann auf einen linksseitigen View gesetzt werden, der zu dem Basisview in einem Ausmaß von 2n-2 beabstandet ist, oder auf einen rechtsseitigen View, der von dem ersten hierarchischen Hilfsview in einem Ausmaß von 2n-2 beabstandet ist. In dem oben erwähnten Fall der 6A werden zum Beispiel zwei zweite hierarchische Hilfsviews erzeugt. Da es bei dem oben erwähnten Fall der 6B keinen zum ersten hierarchischen Hilfsview in einem Ausmaß von 2n-2 in Richtung rechts beabstandeten View gibt, wird ein zum Basisview in einem Ausmaß von 2n-2 in Richtung links beabstandeter Viewpunkt als zweiter hierarchischer Hilfsview festgelegt.
  • Als zweiter hierarchischer Hilfsview 63 kann auch ein von dem zweiten hierarchischen Hilfsview in einem Ausmaß von 2n-2 in Richtung links beabstandeter Viewpoint festgesetzt werden. Falls der Viewpunkt jedoch zu einem der beiden Enden des Multiview gehört, kann der oben erwähnte Viewpunkt als dritter hierarchischer Hilfsview bestimmt werden. In dem Fall von 6B werden einer oder zwei zweite hierarchische Hilfsviews erzeugt.
  • Schließlich wird die Position des dritten hierarchischen Hilfsviews auf die verbleibenden, von den oben erwähnten als Basisview sowie erstem und zweiten hierarchischen Hilfsview gewählten Viewpunkten verschiedenen, Viewpunkte gesetzt. In 6A werden vier dritte hierarchische Hilfsviews erzeugt. In 6B werden vier oder fünf dritte hierarchische Hilfsviews erzeugt.
  • Die 7A7B stellen konzeptionelle graphische Darstellungen zur Veranschaulichung einer Multiview-Sequenz-Vorhersagestruktur gemäß einem zweiten Beispiel dar.
  • Das in den 7A7B illustrierte zweite Beispiel ist dem oben erwähnten ersten Beispiel der 6A6B konzeptionell ähnlich, doch sollte darauf hingewiesen werden, dass die 7A7B den Anfangsview zur Wahl des Basisviews im Unterschied zu den 6A6B an der äußersten linken Seite angeordnet zeigen. Mit anderen Worten wird ein zur äußerst linken Seite 65 beabstandeter vierter View als Basisview gewählt. Die übrigen zu dem oben erwähnten Unterschied verschiedenen Teile sind in den 7A7B die selben wie jene der 6A6B.
  • 8 stellt eine konzeptionelle graphische Darstellung einer Multiview-Sequenz-Vorhersagestruktur gemäß einem dritten Beispiel dar.
  • Das in 8 veranschaulichte dritte Beispiel zeigt einen exemplarischen Fall, bei dem die Multiviewzahl (m) auf 2n-1 < m ≤ 2n gesetzt ist. Genauer genommen zeigt 8 diverse Fälle, die mit m = 5, m = 6, m = 7, m = 8 bezeichnet sind. Bei m = 5, 6 und 7 erfüllt die Multiviewzahl (m) nicht die Bedingung m = 2n, so dass bei dem System ohne Vornahme von Änderungen Schwierigkeiten bezüglich einer Realisierung des oben erwähnten ersten Beispiels der 6A6B und des oben erwähnten zweiten Beispiels der 7A7B bestehen. Um das vorstehend genannte Problem zu lösen, setzt das System ein Konzept virtueller Views so ein, dass das vorgenannte Problem durch das Konzept der virtuellen Views umgangen wird.
  • Zum Beispiel werden, wenn 2n-1 < m ≤ 2n, 2n-m virtuelle Views erzeugt. Ist die Multiviewzahl (m) eine ungerade Zahl, dann werden an der linken Seite (oder der rechten Seite) der Multiviewanordnung (2n – m + 1)/2 virtuelle Views erzeugt, während an der rechten Seite (oder der linken Seite) der Multiviewanordnung (2n – m – 1)/2 virtuelle Views erzeugt werden. Ist die Multiviewzahl (m) eine gerade Zahl, dann werden an der linken Seite und der rechten Seite der Multiviewanordnung jeweils (2n – m)/2 virtuelle Views erzeugt. Die obengenannte Vorhersagestruktur kann auf die resultierenden virtuellen Views dann in der selben Weise angewandt werden.
  • Wenn die Multiviewzahl (m) zum Beispiel auf "5" gesetzt ist, wird der Multiview m = 8 virtuell durch Hinzufügen von einem oder zwei virtuellen Views an jedes der beiden Enden des jeweiligen Multiview gebildet, und die Position des Basisviews und die Positionen von drei hierarchischen Hilfsviews werden ausgewählt. Wie aus 8 ersichtlich werden zwei virtuelle Views an das linksseitige Ende und ein virtueller View wird an das rechtsseitige Ende angehängt, so dass der Basisview und und der erste bis dritte hierarchische Hilfsview entsprechend dem vorgenannten Beispiel der 6A gewählt werden.
  • Wenn die Multiviewzahl (m) zum Beispiel auf "6" gesetzt ist, wird der Multiview m = 8 virtuell durch Hinzufügen von einem einzelnen virtuellen View an jedes der beiden Enden des Multiviews gebildet, und die Position des Basisview und die Positionen der drei hierarchischen Hilfsviews werden entsprechend gewählt. Wie aus 8 ersichtlich werden der Basisview und der erste bis dritte hierarchische Hilfsview entsprechend dem vorgenannten Beispiel der 6A gewählt.
  • Wenn die Multiviewzahl (m) zum Beispiel auf "7" gesetzt ist, wird der Multiview m = 8 virtuell durch Hinzufügen eines einzelnen virtuellen Views an eines der beiden Enden des Multiviews gebildet, und die Position des Basisview und die Positionen der drei hierarchischen Hilfsviews werden entsprechend gewählt. Wie aus 8 ersichtlich wird an das linksseitige Ende ein einzelner virtueller View angefügt, so dass der Basisview und der erste bis dritte Hilfsview entsprechend dem vorgenannten Beispiel der 6A gewählt werden.
  • Die 9A9B stellen konzeptionelle graphische Darstellungen zur Veranschaulichung einer hierarchischen Vorhersagestruktur zwischen mehreren Viewpunkten von Multiview-Sequenzdaten dar. 9A zeigt zum Beispiel das Ausführungsbeispiel des Falles von 6A, und 9B zeigt das Ausführungsbeispiel des Falles von 7A. Genauer genommen werden, wenn die Multiviewzahl (m) auf "8" gesetzt ist, der Basisview und drei hierarchische Hilfsviews so zur Verfügung gestellt, dass die hierarchische Codierung (oder "View-Skalierbarkeit") zwischen mehreren Viewpoints während des Codierens der Multiview-Sequenz verfügbar ist.
  • Mit den oben erwähnten hierarchischen Hilfsview-Bitströmen realsierte einzelne Bilder werden auf Basis eines Bildes des Basisview und/oder eines Bildes eines oberen hierarchischen Hilfsview-Bildes so abgeschätzt/vorhergesagt, dass die Codierung des resultierenden Bildes durchgeführt wird. Insbesondere wird als oben erwähnte Abschätzung üblicherweise die Disparitäts-Abschätzung verwendet.
  • Zum Beispiel führt der erste hierarchische Hilfsview 92 den Abschätzungs-/Codiervorgang zwischen Viewpunkten (d. h. Abschätzungs-/Codiervorgang des Multiview) durch Bezugnahme auf den Basisview 91 aus. Die zweiten hierarchischen Hilfsviews (93a und 93b) führen den Abschätzungs-/Codiervorgang zwischen Viewpunkten durch Bezugnahme auf den Basisview 91 und/oder den ersten hierarchischen Hilfsview 92 aus. Die dritten hierarchische Hilfsviews (94a, 94b, 94c und 94d) führen den Abschätzungs-/Codiervorgang zwischen Viewpunkten durch Bezugnahme auf den Basisview und den ersten hierarchischen Hilfsview 92 und/oder die zweiten hierarchischen Hilfsviews (93a und 93b) aus. In den Zeichnungen geben die Pfeile Ablaufrichtungen des zuvor oben in Verbindung mit der vorstehend angegebenen Beschreibung erwähnten Multiview-Abschätzungs-/Codiervorgangs an, und man kann erkennen, dass sich in der selben Hierarchie enthaltene Hilfsströme bei Bedarf auf unterschiedliche Views beziehen. Der vorstehend genannte hierarchisch codierte Bitstrom wird am empfangsseitigen Ende entsprechend den Anzeigeeigenschaften selektiv decodiert, wobei eine genauere Schilderung dessen später unter Bezugnahme auf die 12 dargelegt wird.
  • Im Allgemeinen kann die Vorhersagestruktur des Codierers so in eine andere Struktur abgeändert werden, dass der Decoder die Vorhersagestrukturbeziehungen der Bilder einzelner Views problemlos mittels Übertragung von Information erkennen kann, die die Beziehungen der einzelnen Views angibt. Ferner kann auch spezielle Information an den Decoder übertragen werden, die angibt, welche der Ebenen der gesamten View-Hierarchie die einzelnen Views enthält.
  • Unter der Voraussetzung, dass den jeweiligen Bildern (oder Slices) eine Viewebene (view_level) zugewiesen wird und zwischen den Bildern der Views eine Abhängigkeitsbeziehung gegeben ist, kann der Decoder selbst dann, wenn die Vorhersagestruktur durch den Codierer auf verschiedenste Weise verändert wurde, die veränderte Vorhersagestruktur erkennen. In diesem Fall kann die Vorhersagestruktur-/Richtungsinformation der jeweiligen Views in Form einer Matrix ausgebildet sein, so dass die matrixartige Vorhersagestruktur-/Richtungsinformation an einen Bestimmungsort übertragen wird. Mit anderen Worten wird an den Decoder die Anzahl der Views (num_view) übertragen, und ferner können die Abhängigkeitsbeziehungen der jeweiligen Views durch eine zweidimensionale (2D) Matrix dargestellt werden.
  • Wenn sich die Abhängigkeitsbeziehungen der Views mit der Zeit ändern, zum Beispiel, wenn sich die Abhängigkeitsbeziehungen der ersten Einzelbilder eines jeden GOP von denen der anderen Einzelbilder der verbleibenden Zeitzonen unterscheiden, kann die mit den einzelnen Fällen verknüpfte Abhängigkeitsbeziehungsmatrix-Information übertragen werden.
  • Die 10A10B stellen konzeptionelle graphische Darstellungen zur Veranschaulichung einer Vorhersagestruktur einer zweidimensionalen (2D) Multiviewsequenz gemäß einem vierten Beispiel dar.
  • Die oben angegebenen ersten bis dritten Beispiele offenbarten Beispiele eines Multiview einer eindimensionalen Anordnung. Es sollte darauf hingewiesen werden, dass diese bei Bedarf auch auf eine zweidimensionale (2D) Multiviewsequenz angewandt werden können.
  • In den 10A10B geben Quadrate einzelne in zweidimensionaler Form angeordnete Views an, wobei in den Quadraten enthaltene Zahlensymbole die Beziehungen der hierarchischen Views anzeigen.
  • Wenn die Nummer eines Quadrats zum Beispiel in der Form "A-B" gestaltet ist, gibt "A" einen zugehörigen hierarchischen Hilfsview an und "B" gibt eine Priorität in dem selben hierarchischen Hilfsview an.
  • Soweit es die in den quadratischen Flächen enthaltenen Zahlensymbole betrifft, gibt die Zahl "0" einen Basisview, die Zahl "1" einen ersten hierarchischen Hilfsview, die Zahl "2-1" oder "2-2" einen zweiten hierarchischen Hilfsview, die Zahl "3-1" oder "3-2" einen dritten hierarchischen Hilfsview, die Zahl "4-1", "4-2" oder "4-3" einen vierten hierarchischen Hilfsview und die Zahl "5-1", "5-2" oder "5-3" einen fünften hierarchischen Hilfsview an.
  • Abschließend lässt sich sagen, dass im Falle eines Erzeugens eines Bitstroms durch Codieren von Bildern, die aus dem zweidimensionalen (2D) Multiview erlangt wurden, der oben genannte Bitstrom, wenn die 2D-Multiviewzahl (m) entlang einer horizontalen Achse 2n-1 < m ≤ 2n und die Multiviewzahl (p) entlang einer vertikalen Achse 2k-1 < m ≤ 2k ist, einen einzigen Basisview-Bitstrom und (n + k) hierarchische Hilfsview-Bitströme aufweist.
  • Genauer gesagt werden die oben genannten (n + k) hierarchischen Hilfsviews abwechselnd entlang der horizontalen und der vertikalen Achse gebildet. Zum Beispiel wird ein erster hierarchischer Hilfsview der (n + k) hierarchischen Hilfsviews von 10A an der den Basisview enthaltenden vertikalen Achse positioniert. Ein erster hierarchischer Hilfsview der (n + k) hierarchischen Hilfsviews von 10B wird an der den Basisview enthaltenden horizontalena Achse positioniert.
  • Zum Beispiel umfasst der Bitstrom wie in 10A gezeigt, wenn die Multiviewzahl entlang der horizontalen Achse (m) auf "8" gesetzt ist (d. h. n = 3) und die Multiviewzahl entlang der vertikalen Achse (p) auf "4" gesetzt ist (d. h. k = 2), einen einzigen Basisview und fünf hierarchische Hilfsviews. In Verbindung mit der oben angegebenen Beschreibung zeigt 10A, dass die hierarchischen Hilfsviews in der Reihenfolge "vertikale Achse → horizontale Achse → vertikale Achse ..." ausgewählt werden. Ein Verfahren zum Bestimmen von Positionen des Basisview und der hierarchischen Hilfsviews wird hiernach wie folgt beschrieben.
  • Zunächst wird die Position des Basisview in der selben Weise bestimmt, wie bei der oben angegebenen eindimensionalen Anordnung. Daher wird die Position des Basisview als ein spezieller View entsprechend einer 2n-1-ten Position in Richtung der horizontalen Achse und einer 2k-1-ten Position in Richtung der vertikalen Achse bestimmt.
  • Die Position eines ersten hierarchischen Hilfsviews wird, wie mit ➀ bezeichnet, als zur Position des Basisview in Richtung der vertikalen Achse im Ausmaß von 2k-2 beabstandeter oberseitiger View oder unterseitiger View festgelegt. Die Positionen der zweiten hierarchischen Hilfsviews werden als linksseitige Views, wie mit ➁ bezeichnet, oder rechtsseitige Views festgelegt, die von der Position des Basisviews und des ersten hierarchischen Hilfsviews in Richtung der horizontalen Achse im Ausmaß von 2n-2 beabstandet sind. Als Positionen der dritten hierarchischen Hilfsviews werden die Views bestimmt, die in der vertikalen Achse, die nicht nur die ersten und zweiten hierarchischen Hilfsviews, sondern auch den Basisview enthält, verbleiben. Die Position des vierten hierarchischen Hilfsviews wird als linkseitiger View oder rechtsseitiger View bestimmt, der zu den ersten bis dritten hierarchischen Hilfsviews und dem Basisview in Richtung der horizontalen Achse im Ausmaß von 2n-2 beabstandet ist. Die Positionen der fünften hierarchischen Hilfsviews werden schließlich als die verbleibenden Views festgelegt, die von dem Basisview und den ersten bis vierten hierarchischen Hilfsviews verschieden sind.
  • Wie aus 10B ersichtlich ist, umfasst der Bitstrom zum Beispiel, wenn die Multiviewzahl entlang der horizontalen Achse (m) auf "8" gesetzt ist (d. h. n = 3) und die Multiviewzahl entlang der vertikalen Achse (p) auf "4" gesetzt ist (d. h. k = 2), einen einzelnen Basisview und fünf hierarchische Hilfsviews. In Verbindung mit der oben angegebenen Beschreibung zeigt 10B, dass die hierarchischen Hilfsviews in der Reihenfolge "horizontale Achse → vertikale Achse → horizontale Achse ..." ausgewählt werden. Ein Verfahren zum Bestimmen von Positionen des Basisview und der hierarchischen Hilfsviews wird hiernach wie folgt beschrieben.
  • Zunächst wird die Position des Basisview in der selben Weise bestimmt, wie bei der oben angegebenen eindimensionalen Anordnung. Daher wird die Position des Basisview als ein spezieller View entsprechend einer 2n-1-ten Position in Richtung der horizontalen Achse und einer 2k-1-ten Position in Richtung der vertikalen Achse bestimmt.
  • Die Position des ersten hierarchischen Hilfsviews wird, wie mit ➀ bezeichnet, als zur Position des Basisview in Richtung der horizontalen Achse im Ausmaß von 2n-2 beabstandeter linksseitiger View oder rechtsseitiger View festgelegt. Die Positionen der zweiten hierarchischen Hilfsviews werden als oberseitige Views, wie mit ➁ bezeichnet, oder unterseitige Views festgelegt, die von dem Basisview und dem ersten hierarchischen Hilfsview in Richtung der vertikalen Achse im Ausmaß von 2k-1 beabstandet sind. Als Positionen der dritten hierarchischen Hilfsviews werden die linksseitigen und rechtsseitigen Views bestimmt, die von dem Basisview und den ersten hierarchischen Hilfsviews in Richtung der horizontalen Achse im Ausmaß von 2n-2 beabstandet sind. Die Positionen der vierten hierarchischen Hilfsviews werden als die Views bestimmt, die in der vertikalen Achse, die nicht nur die ersten bis dritten hierarchischen Hilfsviews, sondern auch den Basisview enthält, verbleiben. Die Positionen der fünften hierarchischen Hilfsviews werden schließlich als die verbleibenden Views festgelegt, die sich von dem Basisview und den ersten bis vierten hierarchischen Hilfsviews unterscheiden.
  • Die 11A11C stellen konzeptionelle graphische Darstellungen zur Veranschaulichung einer Multiviewsequenz-Vorhersagestruktur gemäß einem fünften Beispiel dar. Das in den 11A11C veranschaulichte fünfte Beispiel weist Vorhersagestrukturregeln auf, die sich von jenen des oben erwähnten ersten bis dritten Beispiels unterscheiden. Zum Beispiel geben die quadratischen Flächen der 11A11C einzelne Views an, während die in den quadratischen Flächen enthaltenen Zahlensymbole die Reihenfolge der View-Vorhersage angeben. Mit anderen Worten bedeutet, soweit die in den quadratischen Flächen enthaltenen Zahlensymbole betroffen sind, die Zahl "0" einen ersten vorhergesagten View (oder einen ersten View), die Zahl "1" einen zweiten vorhergesagten View (oder zweiten View), die Zahl "2" einen dritten vorhergesagten View (oder dritten View) und die Zahl "3" einen vierten vorhergesagten View (oder vierten View).
  • 11A zeigt zum Beispiel Bestimmungsformate des ersten bis vierten Views für den Fall, dass die Multiviewzahl (m) mit m = 1~m = 10 gekennzeichnet ist. Die ersten bis vierten Views werden mithilfe der folgenden Regeln bestimmt.
  • Zum Beispiel werden beide Enden des Multiview als erster View (0), und der Zentralview des Multiviews wird als zweiter View (1) gesetzt. Als dritte Views (2) werden jeweils Views gesetzt, die der Reihe nach durch Überspringen von zumindest einem View in beide Richtungen auf Basis des zweiten Views (1) angeordnet sind. Die verbleibenden, von den ersten bis dritten Views verschiedenen Views werden jeweils als vierte Views (3) gesetzt. Wenn die ersten bis dritten Views wie oben beschrieben bestimmt werden, besteht eine Notwendigkeit zur Unterscheidung zwischen Basisview und Hilfsview. Zum Beispiel wird von dem ersten View, dem zweiten View oder dem dritten View einer als Basisview gesetzt, und die verbleibenden vom Basisview verschiedenen Views können als Hilfsviews gesetzt werden.
  • Vorausgesetzt, dass der Basisview durch die oben beschriebenen vorgegebenen Regeln nicht bestimmt und vom Codierer beliebig gewählt wird, kann in dem Bitstrom eine Identifizierungsinformation (ID-Information) (d. h. "base_view_position") für die Position des Basisview enthalten sein.
  • 11B zeigt ein anderes Beispiel der Bestimmung des zweiten View (1). Genauer zeigt 11B an anderes, vom Beispiel der 11A insofern verschiedenes Beispiel, dass es einen exemplarischen Fall zeigt, bei dem die verbleibenden, von dem ersten View (0) verschiedenen, Views auf ungerade Zahlen gesetzt werden. Mit anderen Worten kann sich der zweite View (1) bei m = 4, m = 6, m = 8 oder m = 10 von 11B von dem zweiten View (1) von 11A bei Bedarf unterscheiden. Als weiteres Beispiel können, im Falle eines Bestimmens von nach dem zweiten View (1) positionierten Views, obere Views durch aufeinanderfolgendes Überspringen eines einzelnen Views auf Basis des ganz linken ersten Views (0) bestimmt werden.
  • 11C zeigt in Verbindung mit der vorstehend angegebenen Beschreibung einen exemplarischen Fall, bei dem die Multiviewzahl (m) 10 ist (d. h. m = 10) und der (einem sechsten View entsprechende) Basisview des Multiview mittels der Basisview-ID-Information als "base_view_position = '1' view" gekennzeichnet ist. Zum Beispiel wird, wie aus 11C ersichtlich ist, der erste hierarchische Hilfsview auf den dritten View (2) gesetzt, der zweite hierarchische Hilfview wird auf den ersten View (0) gesetzt, und der dritte hierarchische Hilfsview wird auf den vierten View (3) gesetzt.
  • In Verbindung mit der oben angegebenen Beschreibung kann der Basisview in den 11A11C auch wie in 11C gezeigt auf den ersten View (1) gesetzt werden. Der Grund hierfür ist, dass bei einer Anordnung des Basisview an einer speziellen Position in der Nähe des Zentralteils des Multiview oder einer Anordnung am Zentralteil des Multiview der Abschätzungs-/Codiervorgang der anderen Hilfsviews effektiv durchgeführt werden kann. Daher können die Position des Basisview und die Position des Hilfsviews gemäß den nachfolgenden Regeln bestimmt werden.
  • Mit anderen Worten wird die Position des Basisview auf den Zentralview (1) des Multiview gesetzt, die Position des zweiten Hilfsviews wird auf die Views an jedem der beiden Enden des Multiviews gesetzt, und die Position des ersten Hilfsviews wird auf den View (2) gesetzt, der der Reihe nach durch Überspringen von zumindest einem View in beide Richtungen auf Basis des Basisview angeordnet ist. Die verbleibenden, von den oben erwähnten Views verschiedenen Views (3), werden alle als dritte Hilfsviews gesetzt.
  • Im Zusammenhang mit der vorstehenden Beschreibung werden, wenn die Multiviewzahl (m) gleich oder kleiner als "7" (d. h. m ≤ 7) ist, nur zwei oder weniger Views zwischen dem Basisview (1) und dem zweiten Hilfsview (0) angeordnet, alle zwischen dem Basisview (1) und dem zweiten Hilfsview (0) angeordnete Views werden jeweils auf die ersten Hilfsviews (2) gesetzt.
  • Wenn die Multiviewzahl (m) gleich oder größer als "8" ist (d. h. m≥8) und lediglich zwei oder weniger Views zwischen dem zweiten Hilfsview (0) und dem ersten Hilfsview (2) angeordnet sind, werden alle zwischen dem zweiten Hilfsview (0) und dem ersten Hilfsview (2) angeordneten Views jeweils auf die dritten Views (3) gesetzt.
  • Zum Beispiel lässt sich erkennen, wenn wie in den 11A~11C dargestellt m = 8, m = 9 und m = 10, dass ein oder zwei zwischen dem zweiten Hilfsview (0) und dem ersten Hilfsview (2) angeordnete Views jeweils auf den dritten Hilfsview (3) gesetzt werden.
  • Als weiteres Beispiel, wenn nur zwei oder weniger Views zwischen dem Basisview (1) und dem zweiten Hilfsview (0) angeordnet sind, können alle zwischen dem Basisview (1) und dem zweiten Hilfsview (0) angeordneten Views jeweils auf die dritten Hilfsviews (3) gesetzt werden. Zum Beispiel kann wie in den 11A~11C gezeigt, wenn m = 8, erkannt werden, dass zwei zwischen dem Basisview (1) und dem zweiten Hilfsview (0) angeordnete Views jeweils auf die dritten Hilfsviews (3) gesetzt werden.
  • Bei Verwendung des Basisview und der Hilfsviews, wie sie durch das oben angebenene Verfahren bestimmt sind, kann die View-Skalierbarkeit zwischen den Views (oder Viewpunkten) durchgeführt werden.
  • Zum Beispiel werden, wenn die Multiviewzahl (m) gleich oder kleiner "7" ist (d. h. m ≤ 7), ein einzelner Basisviewstrom und zwei hierarchische Hilfsview-Bitströme erzeugt. Zum Beispiel kann der zweite Hilfsview (0) auf den ersten hierarchischen Hilfsview gesetzt werden, wobei der erste Hilfsview (2) auch auf den zweiten hierarchischen Hilfsview gesetzt werden kann.
  • Wenn die Multiviewzahl (m) zum Beispiel gleich oder größer "8" (d. h. m ≥ 8) ist, d. h., wenn m = 8, m = 9 oder m = 10, werden ein einziger Basis-Bitstrom und drei hierarchische Hilfsview-Bitströme erzeugt. Zum Beispiel wird der erste Hilfsview (2) als erster hierarchischer Hilfsview gewählt, der zweite Hilfsview (0) wird als erster hierarchischer Hilfsview gewählt, und der dritte Hilfsview (3) wird als dritter hierarchischer Hilfsview gewählt.
  • 12 stellt eine konzeptionelle graphische Darstellung zur Veranschaulichung eines hierarchischen Verfahrens zum Codieren/Decodieren einer Multiview-Sequenz dar.
  • 12 lässt erkennen, dass der Codierer am übertragenden Ende die View-Skalierbarkeitsfunktion der Multiview-Sequence unter Verwendung von modifizierten Verfahren, die mithilfe der ersten bis fünften Ausführungsformen vorhergesagt werden können, und im ersten bis fünften Beispiel gezeigte Verfahren zum Erzeugen eines Bitstroms durchführt, und den Bitstrom dann an das empfangsseitige Ende überträgt.
  • Das Decodierverfahren und die Decodiervorrichtung empfangen daher den mit den oben erwähnten Eigenschaften ausgebildeten Bitstrom, Decodieren den empfangenen Bitstrom und Erzeugen decodierte Daten für jede der Hierarchien. Danach können unter Verwendung der von jeder Hierarchie decodierten Daten, entsprechend der Wahl eines Benutzers oder Bildschirms diverse Anzeigearten realisiert werden.
  • Zum Beispiel eignet sich eine Basisebene 121 zur ausschließlichen Reproduktion von Daten des Basisviews für eine 2D-Anzeige 125. Eine erste Erweiterungsebene #1 (122) zur gemeinsamen Reproduktion von Daten des Basisviews und Daten des ersten hierarchischen Hilfsviews eignet sich für eine aus einer Kombination von 2D-Bildern gebildeten Stereoanzeige 126. Eine zweite Erweiterungsebene #2 (123) zur gemeinsamen Reproduktion von Daten des Basisviews, Daten des ersten hierarchischen Hilfsviews und Daten des zweiten hierarchischen Hilfsviews eignet sich für eine Multiview-Anzeige 127 mit geringer Auflösung zur 3D-Reproduktion der Multiview-Sequenz. Eine dritte Erweiterungsebene #3 zum gemeinsamen Reproduzieren von Daten des Basisviews und Daten aller hierarchischen Hilfsviews eignet sich für eine Multiview-Anzeige 128 mit hoher Auflösung zur 3D-Reproduktion der Multiview-Sequenz.

Claims (2)

  1. Vorrichtung zum Decodieren von Multiview-Videodaten in einem Multiview-Videostrom, wobei die Vorrichtung aufweist: eine Parsereinheit (10) zum Erhalten von den Multiview-Videostrom repräsentierender Identifizierungsinformation, wobei der Multiview-Videostrom ein Ankerbild umfasst, das Ankerbild ein codiertes Bild darstellt, in dem alle Slices ausschließlich auf zur selben Zeit und zu einem anderen View als das Ankerbild gehörende Slices Bezug nehmen, die Parsereinheit aus dem Multiview-Videostrom auf Basis der Identifizierungsinformation View-Identifizierungsinformation erhält, und die View-Identifizierungsinformation für jeden Referenzview des Ankerbildes einen View-Identifikator bereitstellt; eine Pufferspeichereinheit (16) für decodierte Bilder zum Speichern eines Inter-View-Referenzbildes des Ankerbildes auf Basis der View-Identifizierungsinformation, und eine Inter-Vorhersageeinheit (13) zum Bestimmen eines Vorhersagewerts eines Makroblocks in dem Ankerbild auf Basis des gespeicherten Inter-View-Referenzbildes, wobei die Inter-Vorhersageeinheit den Makroblock unter Verwendung des Vorhersagewerts decodiert, wobei die Identifizierungsinformation aus einem Sequenzparametersatz erhalten wird.
  2. Vorrichtung nach Anspruch 1, worin die Multiview-Videodaten Videodaten eines von anderen Views unabhängigen Basisview umfassen, wobei der Basisview ein View ist, der ohne Verwendung einer Inter-View-Vorhersage decodiert wird.
DE200720019463 2006-01-12 2007-01-12 Multiview-Video-Verarbeitungsvorrichtung Expired - Lifetime DE202007019463U1 (de)

Applications Claiming Priority (24)

Application Number Priority Date Filing Date Title
US75823406P 2006-01-12 2006-01-12
US758234P 2006-01-12
KR20060004956 2006-01-17
KR20060004956 2006-01-17
US75962006P 2006-01-18 2006-01-18
US759620P 2006-01-18
US76253406P 2006-01-27 2006-01-27
US762534P 2006-01-27
KR20060027100 2006-03-24
KR20060027100 2006-03-24
US78719306P 2006-03-30 2006-03-30
US787193P 2006-03-30
KR20060037773 2006-04-26
KR1020060037773A KR20070076356A (ko) 2006-01-18 2006-04-26 비디오 영상의 부호화/복호화 방법 및 장치
US81827406P 2006-07-05 2006-07-05
US818274P 2006-07-05
US83008706P 2006-07-12 2006-07-12
US830087P 2006-07-12
US83032806P 2006-07-13 2006-07-13
US60/830,328 2006-07-13
KR20060110338 2006-11-09
KR1020060110337A KR20070076391A (ko) 2006-01-18 2006-11-09 비디오 신호의 디코딩/인코딩 방법 및 장치
KR1020060110338A KR20070076392A (ko) 2006-01-18 2006-11-09 비디오 신호의 디코딩/인코딩 방법 및 장치
KR20060110337 2006-11-09

Publications (2)

Publication Number Publication Date
DE202007019463U1 true DE202007019463U1 (de) 2012-10-09
DE202007019463U8 DE202007019463U8 (de) 2013-03-21

Family

ID=46045583

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200720019463 Expired - Lifetime DE202007019463U1 (de) 2006-01-12 2007-01-12 Multiview-Video-Verarbeitungsvorrichtung

Country Status (6)

Country Link
US (9) US7856148B2 (de)
EP (3) EP1982517A4 (de)
JP (3) JP5192393B2 (de)
KR (8) KR100943912B1 (de)
DE (1) DE202007019463U1 (de)
WO (3) WO2007081177A1 (de)

Families Citing this family (241)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6307487B1 (en) 1998-09-23 2001-10-23 Digital Fountain, Inc. Information additive code generator and decoder for communication systems
US7068729B2 (en) 2001-12-21 2006-06-27 Digital Fountain, Inc. Multi-stage code generator and decoder for communication systems
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US9240810B2 (en) 2002-06-11 2016-01-19 Digital Fountain, Inc. Systems and processes for decoding chain reaction codes through inactivation
US7154952B2 (en) 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
EP2357732B1 (de) 2002-10-05 2022-04-06 QUALCOMM Incorporated Systematische kodierung und dekodierung von kettenreaktionskoden
WO2005112250A2 (en) 2004-05-07 2005-11-24 Digital Fountain, Inc. File download and streaming system
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
JP4991757B2 (ja) * 2006-01-09 2012-08-01 エルジー エレクトロニクス インコーポレイティド 映像信号のエンコーディング/デコーディング方法
KR101276847B1 (ko) 2006-01-12 2013-06-18 엘지전자 주식회사 다시점 비디오의 처리
KR100943912B1 (ko) * 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
US20070177671A1 (en) * 2006-01-12 2007-08-02 Lg Electronics Inc. Processing multiview video
CN101686107B (zh) 2006-02-13 2014-08-13 数字方敦股份有限公司 使用可变fec开销和保护周期的流送和缓冲
US9270414B2 (en) 2006-02-21 2016-02-23 Digital Fountain, Inc. Multiple-field based code generator and decoder for communications systems
KR101342587B1 (ko) * 2006-03-22 2013-12-17 세종대학교산학협력단 조명변화 보상 움직임 예측 부호화 및 복호화 방법 및 장치
US20100091845A1 (en) * 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
ES2636917T3 (es) 2006-03-30 2017-10-10 Lg Electronics, Inc. Un método y un aparato para descodificar/codificar una señal de video
WO2007134196A2 (en) 2006-05-10 2007-11-22 Digital Fountain, Inc. Code generator and decoder using hybrid codes
US9419749B2 (en) 2009-08-19 2016-08-16 Qualcomm Incorporated Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9380096B2 (en) 2006-06-09 2016-06-28 Qualcomm Incorporated Enhanced block-request streaming system for handling low-latency streaming
US9178535B2 (en) 2006-06-09 2015-11-03 Digital Fountain, Inc. Dynamic stream interleaving and sub-stream based delivery
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
WO2007148909A1 (en) * 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
CN101485208B (zh) * 2006-07-05 2016-06-22 汤姆森许可贸易公司 多视图视频的编码和解码方法及装置
CN101491096B (zh) * 2006-07-12 2012-05-30 Lg电子株式会社 信号处理方法及其装置
CN101518086B (zh) * 2006-07-20 2013-10-30 汤姆森特许公司 在多视图视频编码中用信号通知视图可分级性的方法和装置
WO2008023968A1 (en) * 2006-08-25 2008-02-28 Lg Electronics Inc A method and apparatus for decoding/encoding a video signal
KR101366092B1 (ko) 2006-10-13 2014-02-21 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치
EP2087738B1 (de) * 2006-10-13 2016-04-13 Thomson Licensing Verfahren zur referenzbildverwaltung unter beteiligung von mehransichts-videokodierung
EP2090110A2 (de) 2006-10-13 2009-08-19 Thomson Licensing Referenzbild-listenverwaltungssyntax für die mehrfachansichtsvideokodierung
BRPI0719536A2 (pt) * 2006-10-16 2014-01-14 Thomson Licensing Método para utilização de uma unidade de camada genérica na rede de trabalho sinalizando uma reposição instantânea de decodificação durante uma operação em vídeo.
CN101529921B (zh) * 2006-10-18 2013-07-03 汤姆森特许公司 无显式信令的局部照明和色彩补偿
US20080095228A1 (en) * 2006-10-20 2008-04-24 Nokia Corporation System and method for providing picture output indications in video coding
WO2008051381A2 (en) * 2006-10-24 2008-05-02 Thomson Licensing Picture management for multi-view video coding
KR101370287B1 (ko) * 2006-11-22 2014-03-07 세종대학교산학협력단 디블록킹 필터링 방법 및 장치
KR100856411B1 (ko) * 2006-12-01 2008-09-04 삼성전자주식회사 조도 보상 방법 및 그 장치와 그 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR100905723B1 (ko) * 2006-12-08 2009-07-01 한국전자통신연구원 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법
KR100922275B1 (ko) * 2006-12-15 2009-10-15 경희대학교 산학협력단 경계 필터링 강도의 결정 방법 및 이를 이용한 디블록킹필터링 방법과 장치
EP2116063B1 (de) * 2007-01-04 2017-03-08 Thomson Licensing Verfahren und vorrichtung für in einer high-level-syntax gelieferte mehrfachansichtsinformationen
CN101578874B (zh) * 2007-01-04 2011-12-07 汤姆森特许公司 用于减少多视图编码视频中的照度补偿和/或色彩补偿的编码伪像的方法和装置
JP5249242B2 (ja) * 2007-01-24 2013-07-31 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
KR20100014552A (ko) * 2007-03-23 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
US8548261B2 (en) * 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
ES2858578T3 (es) 2007-04-12 2021-09-30 Dolby Int Ab Organización en mosaico en codificación y decodificación de vídeo
JP5254565B2 (ja) * 2007-04-24 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 動画像予測符号化装置、方法及びプログラム、並びに、動画像予測復号装置、方法及びプログラム
WO2008140190A1 (en) * 2007-05-14 2008-11-20 Samsung Electronics Co, . Ltd. Method and apparatus for encoding and decoding multi-view image
CN105791864B (zh) * 2007-05-16 2019-01-15 汤姆逊许可Dtv公司 编码及传送多视图视频编码信息中使用码片组的装置
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
KR101460362B1 (ko) * 2007-06-25 2014-11-14 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
US20080317124A1 (en) * 2007-06-25 2008-12-25 Sukhee Cho Multi-view video coding system, decoding system, bitstream extraction system for decoding base view and supporting view random access
KR20080114482A (ko) * 2007-06-26 2008-12-31 삼성전자주식회사 다시점 비디오 코딩에서 휘도 보상 방법 및 장치
US20100118942A1 (en) * 2007-06-28 2010-05-13 Thomson Licensing Methods and apparatus at an encoder and decoder for supporting single loop decoding of multi-view coded video
US8254455B2 (en) 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
CN101816180B (zh) * 2007-08-06 2013-01-16 汤姆森特许公司 利用多个视图间参考画面的运动跳跃模式的方法和装置
US20090060043A1 (en) * 2007-08-29 2009-03-05 Geert Nuyttens Multiviewer based on merging of output streams of spatio scalable codecs in a compressed domain
BRPI0816680A2 (pt) 2007-09-12 2015-03-17 Qualcomm Inc Gerar e comunicar informações de identificação de origem pra habilitar comunicações confiáveis.
WO2009048502A2 (en) * 2007-10-05 2009-04-16 Thomson Licensing Methods and apparatus for incorporating video usability information (vui) within a multi-view video (mvc) coding system
KR101345287B1 (ko) * 2007-10-12 2013-12-27 삼성전자주식회사 스케일러블 영상 부호화 방법 및 장치와 그 영상 복호화방법 및 장치
CN101415114B (zh) * 2007-10-17 2010-08-25 华为终端有限公司 视频编解码方法和装置以及视频编解码器
US8270472B2 (en) * 2007-11-09 2012-09-18 Thomson Licensing Methods and apparatus for adaptive reference filtering (ARF) of bi-predictive pictures in multi-view coded video
US20090154567A1 (en) * 2007-12-13 2009-06-18 Shaw-Min Lei In-loop fidelity enhancement for video compression
KR20090090152A (ko) * 2008-02-20 2009-08-25 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US20090219985A1 (en) * 2008-02-28 2009-09-03 Vasanth Swaminathan Systems and Methods for Processing Multiple Projections of Video Data in a Single Video File
KR20090099720A (ko) * 2008-03-18 2009-09-23 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US8811499B2 (en) * 2008-04-10 2014-08-19 Imagine Communications Corp. Video multiviewer system permitting scrolling of multiple video windows and related methods
KR101591085B1 (ko) * 2008-05-19 2016-02-02 삼성전자주식회사 영상 파일 생성 및 재생 장치 및 방법
KR101517768B1 (ko) * 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8326075B2 (en) 2008-09-11 2012-12-04 Google Inc. System and method for video encoding using adaptive loop filter
ES2515967T3 (es) * 2008-10-07 2014-10-30 Telefonaktiebolaget L M Ericsson (Publ) Datos multimedia de múltiples vistas
KR20100040640A (ko) * 2008-10-10 2010-04-20 엘지전자 주식회사 수신 시스템 및 데이터 처리 방법
US8760495B2 (en) * 2008-11-18 2014-06-24 Lg Electronics Inc. Method and apparatus for processing video signal
KR101190891B1 (ko) * 2008-12-17 2012-10-12 파나소닉 주식회사 관통전극의 형성방법 및 반도체 장치
KR101578740B1 (ko) * 2008-12-18 2015-12-21 엘지전자 주식회사 입체영상 디스플레이가 가능한 디지털 방송 수신방법, 및 이를 이용한 디지털 방송 수신장치
CN101884220B (zh) 2009-01-19 2013-04-03 松下电器产业株式会社 编码方法、解码方法、编码装置、解码装置、程序及集成电路
BRPI1007163A2 (pt) 2009-01-26 2018-09-25 Thomson Licensing compactação de quadro para codificação de vídeo
US8947504B2 (en) * 2009-01-28 2015-02-03 Lg Electronics Inc. Broadcast receiver and video data processing method thereof
US8189666B2 (en) * 2009-02-02 2012-05-29 Microsoft Corporation Local picture identifier and computation of co-located information
KR20100089705A (ko) * 2009-02-04 2010-08-12 삼성전자주식회사 3차원 영상 부호화/복호화 장치 및 방법
WO2010092772A1 (ja) * 2009-02-12 2010-08-19 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US8270495B2 (en) * 2009-02-13 2012-09-18 Cisco Technology, Inc. Reduced bandwidth off-loading of entropy coding/decoding
ES2524973T3 (es) 2009-02-23 2014-12-16 Nippon Telegraph And Telephone Corporation Codificación y decodificación de imágenes multivista usando corrección de iluminación y de color localizada
US9281847B2 (en) 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
JP4957823B2 (ja) 2009-04-08 2012-06-20 ソニー株式会社 再生装置および再生方法
JP5267886B2 (ja) * 2009-04-08 2013-08-21 ソニー株式会社 再生装置、記録媒体、および情報処理方法
JP4962525B2 (ja) * 2009-04-08 2012-06-27 ソニー株式会社 再生装置、再生方法、およびプログラム
JP4985884B2 (ja) * 2009-04-08 2012-07-25 ソニー株式会社 再生装置、再生方法、および記録方法
US8982183B2 (en) 2009-04-17 2015-03-17 Lg Electronics Inc. Method and apparatus for processing a multiview video signal
CN103124351A (zh) * 2009-04-28 2013-05-29 松下电器产业株式会社 图像解码装置及图像编码装置
US8780999B2 (en) * 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
KR101631270B1 (ko) * 2009-06-19 2016-06-16 삼성전자주식회사 의사 난수 필터를 이용한 영상 필터링 방법 및 장치
KR20110007928A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 다시점 영상 부호화 및 복호화 방법과 장치
US8948241B2 (en) * 2009-08-07 2015-02-03 Qualcomm Incorporated Signaling characteristics of an MVC operation point
KR101456498B1 (ko) * 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
US9288010B2 (en) 2009-08-19 2016-03-15 Qualcomm Incorporated Universal file delivery methods for providing unequal error protection and bundled file delivery services
EP2302933A1 (de) * 2009-09-17 2011-03-30 Mitsubishi Electric R&D Centre Europe B.V. Gewichtete Bewegungskompensierung eines Video
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
WO2011068807A1 (en) * 2009-12-01 2011-06-09 Divx, Llc System and method for determining bit stream compatibility
KR20110068792A (ko) 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
US9215445B2 (en) 2010-01-29 2015-12-15 Thomson Licensing Block-based interleaving
WO2011105337A1 (ja) * 2010-02-24 2011-09-01 日本電信電話株式会社 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
KR101289269B1 (ko) * 2010-03-23 2013-07-24 한국전자통신연구원 영상 시스템에서 영상 디스플레이 장치 및 방법
JP2011216965A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US20110280311A1 (en) 2010-05-13 2011-11-17 Qualcomm Incorporated One-stream coding for asymmetric stereo video
WO2011146451A1 (en) 2010-05-20 2011-11-24 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
JP5387520B2 (ja) * 2010-06-25 2014-01-15 ソニー株式会社 情報処理装置と情報処理方法
US9485546B2 (en) 2010-06-29 2016-11-01 Qualcomm Incorporated Signaling video samples for trick mode video representations
JP5392199B2 (ja) * 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) * 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
US9456015B2 (en) 2010-08-10 2016-09-27 Qualcomm Incorporated Representation groups for network streaming of coded multimedia data
KR102185765B1 (ko) * 2010-08-11 2020-12-03 지이 비디오 컴프레션, 엘엘씨 멀티-뷰 신호 코덱
WO2012050832A1 (en) 2010-09-28 2012-04-19 Google Inc. Systems and methods utilizing efficient video compression techniques for providing static image data
US9055305B2 (en) 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
CA2810899C (en) 2010-10-05 2016-08-09 General Instrument Corporation Coding and decoding utilizing adaptive context model selection with zigzag scan
US20130250056A1 (en) * 2010-10-06 2013-09-26 Nomad3D Sas Multiview 3d compression format and algorithms
US20120269275A1 (en) * 2010-10-20 2012-10-25 Nokia Corporation Method and device for video coding and decoding
CN107105292B (zh) 2010-12-13 2020-09-08 韩国电子通信研究院 基于帧间预测对视频信号进行解码的方法
GB2486692B (en) * 2010-12-22 2014-04-16 Canon Kk Method for encoding a video sequence and associated encoding device
US9161041B2 (en) 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US20120189060A1 (en) * 2011-01-20 2012-07-26 Industry-Academic Cooperation Foundation, Yonsei University Apparatus and method for encoding and decoding motion information and disparity information
US9215473B2 (en) * 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
US9270299B2 (en) 2011-02-11 2016-02-23 Qualcomm Incorporated Encoding and decoding using elastic codes with flexible source block mapping
KR20120095611A (ko) * 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오 부호화/복호화 방법 및 장치
KR20120095610A (ko) * 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8938001B1 (en) 2011-04-05 2015-01-20 Google Inc. Apparatus and method for coding using combinations
US8780971B1 (en) 2011-04-07 2014-07-15 Google, Inc. System and method of encoding using selectable loop filters
US8780996B2 (en) 2011-04-07 2014-07-15 Google, Inc. System and method for encoding and decoding video data
US8781004B1 (en) 2011-04-07 2014-07-15 Google Inc. System and method for encoding video using variable loop filter
US9247249B2 (en) 2011-04-20 2016-01-26 Qualcomm Incorporated Motion vector prediction in video coding
US8989256B2 (en) 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
KR102083012B1 (ko) * 2011-06-28 2020-02-28 엘지전자 주식회사 움직임 벡터 리스트 설정 방법 및 이러한 방법을 사용하는 장치
US8879826B2 (en) * 2011-07-05 2014-11-04 Texas Instruments Incorporated Method, system and computer program product for switching between 2D and 3D coding of a video sequence of images
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US8891616B1 (en) 2011-07-27 2014-11-18 Google Inc. Method and apparatus for entropy encoding based on encoding cost
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9674525B2 (en) 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US9288505B2 (en) * 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
KR102163151B1 (ko) 2011-08-30 2020-10-08 디빅스, 엘엘씨 복수의 최대 비트레이트 레벨들을 사용하여 인코딩된 비디오를 인코딩하고 스트리밍하기 위한 시스템들 및 방법들
US8818171B2 (en) 2011-08-30 2014-08-26 Kourosh Soroushian Systems and methods for encoding alternative streams of video for playback on playback devices having predetermined display aspect ratios and network connection maximum data rates
US9253233B2 (en) 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US8885706B2 (en) 2011-09-16 2014-11-11 Google Inc. Apparatus and methodology for a video codec system with noise reduction capability
US9237356B2 (en) 2011-09-23 2016-01-12 Qualcomm Incorporated Reference picture list construction for video coding
US9843844B2 (en) 2011-10-05 2017-12-12 Qualcomm Incorporated Network streaming of media data
US9781449B2 (en) * 2011-10-06 2017-10-03 Synopsys, Inc. Rate distortion optimization in image and video encoding
US9338463B2 (en) 2011-10-06 2016-05-10 Synopsys, Inc. Visual quality measure for real-time video processing
US9712819B2 (en) 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
US8855433B2 (en) * 2011-10-13 2014-10-07 Sharp Kabushiki Kaisha Tracking a reference picture based on a designated picture on an electronic device
US8768079B2 (en) 2011-10-13 2014-07-01 Sharp Laboratories Of America, Inc. Tracking a reference picture on an electronic device
US8787688B2 (en) * 2011-10-13 2014-07-22 Sharp Laboratories Of America, Inc. Tracking a reference picture based on a designated picture on an electronic device
US9077998B2 (en) 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
US9124895B2 (en) 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
WO2013067942A1 (zh) * 2011-11-08 2013-05-16 华为技术有限公司 一种帧内预测方法和装置
SG10201502731VA (en) 2011-11-08 2015-05-28 Samsung Electronics Co Ltd Method and apparatus for motion vector determination in video encoding or decoding
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
PL2805511T3 (pl) 2012-01-20 2019-09-30 Sun Patent Trust Sposoby i urządzenie do kodowania i dekodowania wideo przy użyciu predykcji wektora ruchu w czasie
EP2811744A1 (de) * 2012-01-31 2014-12-10 Sony Corporation Bildverarbeitungsvorrichtung und bildverarbeitungsverfahren
ES2865101T3 (es) 2012-02-03 2021-10-15 Sun Patent Trust Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes y dispositivo de codificación/decodificación de imágenes
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
CN103650497B (zh) 2012-03-02 2018-01-05 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置、图像解码装置及图像编码解码装置
US9131073B1 (en) 2012-03-02 2015-09-08 Google Inc. Motion estimation aided noise reduction
WO2013132792A1 (ja) 2012-03-06 2013-09-12 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、及び動画像符号化復号装置
GB2500023A (en) * 2012-03-06 2013-09-11 Queen Mary & Westfield College Coding and Decoding a Video Signal Including Generating and Using a Modified Residual and/or Modified Prediction Signal
US11039138B1 (en) 2012-03-08 2021-06-15 Google Llc Adaptive coding of prediction modes using probability distributions
US20130243085A1 (en) * 2012-03-15 2013-09-19 Samsung Electronics Co., Ltd. Method of multi-view video coding and decoding based on local illumination and contrast compensation of reference frames without extra bitrate overhead
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
WO2013137697A1 (ko) * 2012-03-16 2013-09-19 엘지전자 주식회사 영상 정보 저장 방법 및 영상 정보 파싱 방법 그리고 이를 이용하는 장치
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9294226B2 (en) 2012-03-26 2016-03-22 Qualcomm Incorporated Universal object delivery and template-based file delivery
JP2013247651A (ja) * 2012-05-29 2013-12-09 Canon Inc 符号化装置、符号化方法およびプログラム
JP6000670B2 (ja) 2012-06-11 2016-10-05 キヤノン株式会社 画像処理装置、画像処理方法
US9781447B1 (en) 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US20140003799A1 (en) * 2012-06-30 2014-01-02 Divx, Llc Systems and methods for decoding a video sequence encoded using predictions that include references to frames in reference segments from different video sequences
US10452715B2 (en) 2012-06-30 2019-10-22 Divx, Llc Systems and methods for compressing geotagged video
RU2608354C2 (ru) * 2012-07-02 2017-01-18 Самсунг Электроникс Ко., Лтд. Способ и устройство для кодирования видео и способ и устройство для декодирования видео, определяющие список опорных изображений внешнего прогнозирования в зависимости от размера блока
US9774856B1 (en) 2012-07-02 2017-09-26 Google Inc. Adaptive stochastic entropy coding
RU2510944C2 (ru) * 2012-07-03 2014-04-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ кодирования/декодирования многоракурсной видео последовательности на основе адаптивной локальной коррекции яркости опорных кадров без передачи дополнительных параметров (варианты)
JP5885604B2 (ja) 2012-07-06 2016-03-15 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2854393A4 (de) * 2012-07-11 2015-12-30 Lg Electronics Inc Verfahren und vorrichtung zur verarbeitung von videosignalen
US9344729B1 (en) 2012-07-11 2016-05-17 Google Inc. Selective prediction signal filtering
CN107454426A (zh) * 2012-07-27 2017-12-08 寰发股份有限公司 三维视频编码或解码方法
US9167268B1 (en) 2012-08-09 2015-10-20 Google Inc. Second-order orthogonal spatial intra prediction
US9332276B1 (en) 2012-08-09 2016-05-03 Google Inc. Variable-sized super block based direct prediction mode
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9344742B2 (en) 2012-08-10 2016-05-17 Google Inc. Transform-domain intra prediction
AU2013305370B2 (en) * 2012-08-23 2016-07-07 Mediatek Inc. Method and apparatus of interlayer texture prediction
US20140079116A1 (en) * 2012-09-20 2014-03-20 Qualcomm Incorporated Indication of interlaced video data for video coding
US9554146B2 (en) 2012-09-21 2017-01-24 Qualcomm Incorporated Indication and activation of parameter sets for video coding
JP6074509B2 (ja) 2012-09-29 2017-02-01 華為技術有限公司Huawei Technologies Co.,Ltd. 映像符号化及び復号化方法、装置及びシステム
US9723321B2 (en) 2012-10-08 2017-08-01 Samsung Electronics Co., Ltd. Method and apparatus for coding video stream according to inter-layer prediction of multi-view video, and method and apparatus for decoding video stream according to inter-layer prediction of multi view video
US9369732B2 (en) 2012-10-08 2016-06-14 Google Inc. Lossless intra-prediction video coding
TW201415898A (zh) * 2012-10-09 2014-04-16 Sony Corp 影像處理裝置及方法
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
WO2014103606A1 (ja) * 2012-12-26 2014-07-03 シャープ株式会社 画像復号装置
US9628790B1 (en) 2013-01-03 2017-04-18 Google Inc. Adaptive composite intra prediction for image and video compression
US9509998B1 (en) 2013-04-04 2016-11-29 Google Inc. Conditional predictive multi-symbol run-length coding
CN104104958B (zh) * 2013-04-08 2017-08-25 联发科技(新加坡)私人有限公司 图像解码方法及其图像解码装置
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
KR102105323B1 (ko) * 2013-04-15 2020-04-28 인텔렉추얼디스커버리 주식회사 객체 기반 적응적 밝기 보상 방법 및 장치
WO2014203726A1 (ja) * 2013-06-18 2014-12-24 シャープ株式会社 照度補償装置、lm予測装置、画像復号装置、画像符号化装置
US10284858B2 (en) * 2013-10-15 2019-05-07 Qualcomm Incorporated Support of multi-mode extraction for multi-layer video codecs
US9392288B2 (en) 2013-10-17 2016-07-12 Google Inc. Video coding using scatter-based scan tables
US9179151B2 (en) 2013-10-18 2015-11-03 Google Inc. Spatial proximity context entropy coding
FR3014278A1 (fr) * 2013-11-29 2015-06-05 Orange Procede de codage et de decodage d'images, dispositif de codage et de decodage d'images et programmes d'ordinateur correspondants
US10554967B2 (en) * 2014-03-21 2020-02-04 Futurewei Technologies, Inc. Illumination compensation (IC) refinement based on positional pairings among pixels
US10102613B2 (en) 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
WO2016070363A1 (en) * 2014-11-05 2016-05-12 Mediatek Singapore Pte. Ltd. Merge with inter prediction offset
US9871967B2 (en) * 2015-01-22 2018-01-16 Huddly As Video transmission based on independently encoded background updates
US10356416B2 (en) 2015-06-09 2019-07-16 Qualcomm Incorporated Systems and methods of determining illumination compensation status for video coding
US10887597B2 (en) * 2015-06-09 2021-01-05 Qualcomm Incorporated Systems and methods of determining illumination compensation parameters for video coding
PL412844A1 (pl) 2015-06-25 2017-01-02 Politechnika Poznańska System oraz sposób kodowania obszaru odsłoniętego w strumieniu danych sekwencji wielowidokowych
US10375413B2 (en) * 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
US10148989B2 (en) 2016-06-15 2018-12-04 Divx, Llc Systems and methods for encoding video content
KR102147447B1 (ko) * 2016-09-22 2020-08-24 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
US20190200021A1 (en) * 2016-09-22 2019-06-27 Lg Electronics Inc. Illumination compensation-based inter-prediction method and apparatus in image coding system
US10742979B2 (en) * 2016-12-21 2020-08-11 Arris Enterprises Llc Nonlinear local activity for adaptive quantization
KR20180074000A (ko) * 2016-12-23 2018-07-03 삼성전자주식회사 비디오 디코딩 방법, 이를 수행하는 비디오 디코더, 비디오 인코딩 방법, 및 이를 수행하는 비디오 인코더
JP7248664B2 (ja) 2017-10-05 2023-03-29 インターデジタル ヴイシー ホールディングス, インコーポレイテッド ビデオ符号化および復号における適応的照度補償のための方法および装置
EP3468194A1 (de) * 2017-10-05 2019-04-10 Thomson Licensing Entkoppelte modusinferenz und vorhersage
EP3468198A1 (de) * 2017-10-05 2019-04-10 Thomson Licensing Verfahren und vorrichtung zur videocodierung und -decodierung auf grundlage der beleuchtungskompensation
US10652571B2 (en) * 2018-01-25 2020-05-12 Qualcomm Incorporated Advanced motion vector prediction speedups for video coding
US10958928B2 (en) * 2018-04-10 2021-03-23 Qualcomm Incorporated Decoder-side motion vector derivation for video coding
AU2018423422B2 (en) * 2018-05-16 2023-02-02 Huawei Technologies Co., Ltd. Video coding method and apparatus
MX2021000192A (es) * 2018-07-06 2021-05-31 Mitsubishi Electric Corp Codificador de video, decodificador de video, método de codificación de video y método de decodificación de video.
US11140418B2 (en) * 2018-07-17 2021-10-05 Qualcomm Incorporated Block-based adaptive loop filter design and signaling
CN111263147B (zh) 2018-12-03 2023-02-14 华为技术有限公司 帧间预测方法和相关装置
CN111726598B (zh) * 2019-03-19 2022-09-16 浙江大学 图像处理方法和装置
CN110139112B (zh) * 2019-04-29 2022-04-05 暨南大学 一种基于jnd模型的视频编码方法
KR20210066282A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 디스플레이 장치 및 그 제어방법
WO2021108913A1 (en) * 2019-12-04 2021-06-10 Studio Thinkwell Montréal Inc. Video system, method for calibrating the video system and method for capturing an image using the video system
KR102475334B1 (ko) * 2020-01-13 2022-12-07 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US11375231B2 (en) * 2020-01-14 2022-06-28 Tencent America LLC Method and apparatus for video coding
US11412256B2 (en) 2020-04-08 2022-08-09 Tencent America LLC Method and apparatus for video coding
US20230024288A1 (en) * 2021-07-13 2023-01-26 Tencent America LLC Feature-based multi-view representation and coding

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698312A (ja) * 1992-09-16 1994-04-08 Fujitsu Ltd 画像高能率符号化方式
IL112795A (en) 1994-03-04 2001-01-28 Astrazeneca Ab Derivatives of peptides as antithrombotic drugs, their preparation, and pharmaceutical preparations containing them
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
KR20000064585A (ko) 1997-01-13 2000-11-06 요트.게.아. 롤페즈 디지털 비디오 신호에 보조 데이터 삽입 방법 및장치
JPH11252552A (ja) 1998-03-05 1999-09-17 Sony Corp ビデオ信号の圧縮符号化方法及び圧縮符号化装置、並びに、圧縮符号化データの多重化方法及び多重化装置
US6167084A (en) 1998-08-27 2000-12-26 Motorola, Inc. Dynamic bit allocation for statistical multiplexing of compressed and uncompressed digital video signals
KR100795255B1 (ko) * 2000-04-21 2008-01-15 소니 가부시끼 가이샤 정보 처리 장치 및 방법, 프로그램과 기록 매체
KR100375708B1 (ko) * 2000-10-28 2003-03-15 전자부품연구원 3차원 입체영상을 위한 다시점 비디오 시스템 및영상제조방법
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100481732B1 (ko) * 2002-04-20 2005-04-11 전자부품연구원 다 시점 동영상 부호화 장치
US20040190615A1 (en) 2002-05-22 2004-09-30 Kiyofumi Abe Moving image encoding method, moving image decoding method, and data recording medium
AU2003251484B2 (en) 2002-06-12 2009-06-04 The Coca-Cola Company Beverages containing plant sterols
EP1530370A4 (de) 2002-06-20 2008-12-03 Sony Corp Decodierungseinrichtung und decodierungsverfahren
WO2004002141A1 (ja) 2002-06-20 2003-12-31 Sony Corporation 復号装置及び復号方法
KR20040001354A (ko) 2002-06-27 2004-01-07 주식회사 케이티 광역 무선랜 서비스 방법
KR100475060B1 (ko) 2002-08-07 2005-03-10 한국전자통신연구원 다시점 3차원 동영상에 대한 사용자 요구가 반영된 다중화장치 및 방법
KR100751422B1 (ko) 2002-12-27 2007-08-23 한국전자통신연구원 스테레오스코픽 비디오 부호화 및 복호화 방법, 부호화 및복호화 장치
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US7286689B2 (en) * 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
JP2007519273A (ja) 2003-06-30 2007-07-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーバーコンプリート・ウェーブレット符号化と循環予測写像とを用いてビデオ処理を行うシステム及び方法
US7778328B2 (en) 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
CN1212014C (zh) 2003-08-18 2005-07-20 北京工业大学 基于时空域相关性快速运动估计的视频编码方法
US7613344B2 (en) 2003-12-08 2009-11-03 Electronics And Telecommunications Research Institute System and method for encoding and decoding an image using bitstream map and recording medium thereof
KR100987775B1 (ko) 2004-01-20 2010-10-13 삼성전자주식회사 영상의 3차원 부호화 방법
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US7444664B2 (en) * 2004-07-27 2008-10-28 Microsoft Corp. Multi-view video format
US7671893B2 (en) 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
KR100584603B1 (ko) 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
US7924923B2 (en) 2004-11-30 2011-04-12 Humax Co., Ltd. Motion estimation and compensation method and device adaptive to change in illumination
EP2538675A1 (de) 2004-12-10 2012-12-26 Electronics and Telecommunications Research Institute Vorrichtung zur universellen Codierung für Mehrfach-Ansicht-Video
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US7710462B2 (en) 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US7468745B2 (en) 2004-12-17 2008-12-23 Mitsubishi Electric Research Laboratories, Inc. Multiview video decomposition and encoding
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
KR101276720B1 (ko) * 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
EP1946563A2 (de) * 2005-10-19 2008-07-23 Thomson Licensing Mehransicht-videocodierung unter verwendung skalierbarer videocodierung
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
CN101375593A (zh) 2006-01-12 2009-02-25 Lg电子株式会社 处理多视图视频
KR100943912B1 (ko) * 2006-01-12 2010-03-03 엘지전자 주식회사 다시점 비디오의 처리 방법 및 장치
ES2636917T3 (es) 2006-03-30 2017-10-10 Lg Electronics, Inc. Un método y un aparato para descodificar/codificar una señal de video
CN101529921B (zh) * 2006-10-18 2013-07-03 汤姆森特许公司 无显式信令的局部照明和色彩补偿
US20100118942A1 (en) * 2007-06-28 2010-05-13 Thomson Licensing Methods and apparatus at an encoder and decoder for supporting single loop decoding of multi-view coded video
US8665958B2 (en) * 2008-01-29 2014-03-04 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding video signal using motion compensation based on affine transformation
US8130277B2 (en) * 2008-02-20 2012-03-06 Aricent Group Method and system for intelligent and efficient camera motion estimation for video stabilization

Also Published As

Publication number Publication date
US7817865B2 (en) 2010-10-19
KR20090099589A (ko) 2009-09-22
US7817866B2 (en) 2010-10-19
US20120121015A1 (en) 2012-05-17
KR100943912B1 (ko) 2010-03-03
EP1982518A1 (de) 2008-10-22
JP5199124B2 (ja) 2013-05-15
KR100943914B1 (ko) 2010-03-03
KR20090099588A (ko) 2009-09-22
US20070177811A1 (en) 2007-08-02
JP2009523355A (ja) 2009-06-18
KR100943915B1 (ko) 2010-03-03
US8115804B2 (en) 2012-02-14
US20070177672A1 (en) 2007-08-02
US20070177810A1 (en) 2007-08-02
KR100947234B1 (ko) 2010-03-12
EP1982518A4 (de) 2010-06-16
KR20080094047A (ko) 2008-10-22
KR20090099098A (ko) 2009-09-21
KR100934677B1 (ko) 2009-12-31
JP5192393B2 (ja) 2013-05-08
US20070177674A1 (en) 2007-08-02
EP1982517A1 (de) 2008-10-22
JP5199123B2 (ja) 2013-05-15
US8154585B2 (en) 2012-04-10
KR100953646B1 (ko) 2010-04-21
US20070177813A1 (en) 2007-08-02
WO2007081178A1 (en) 2007-07-19
US20070177812A1 (en) 2007-08-02
JP2009536793A (ja) 2009-10-15
DE202007019463U8 (de) 2013-03-21
JP2009523356A (ja) 2009-06-18
KR100943913B1 (ko) 2010-03-03
US7970221B2 (en) 2011-06-28
KR20090099097A (ko) 2009-09-21
US7831102B2 (en) 2010-11-09
US20070177673A1 (en) 2007-08-02
EP1977593A4 (de) 2010-06-16
KR20080094046A (ko) 2008-10-22
KR20090099590A (ko) 2009-09-22
EP1982517A4 (de) 2010-06-16
US20090310676A1 (en) 2009-12-17
KR20090099591A (ko) 2009-09-22
US7856148B2 (en) 2010-12-21
US8553073B2 (en) 2013-10-08
WO2007081177A1 (en) 2007-07-19
KR100934676B1 (ko) 2009-12-31
EP1977593A1 (de) 2008-10-08
WO2007081176A1 (en) 2007-07-19

Similar Documents

Publication Publication Date Title
DE202007019463U1 (de) Multiview-Video-Verarbeitungsvorrichtung
DE69829931T2 (de) Schätzung von Sichtverschiebungen zur Kodierung stereoskopischer Videobilder
DE60315565T2 (de) Verfahren und Vorrichtung zur Codierung und Decodierung von Bewegungsvektoren
DE202007019454U1 (de) Vorrichtung zum Decodieren/Codieren eines Videosignals
KR100919885B1 (ko) 다시점 비디오의 스케일러블 코딩 및 디코딩 방법과, 코딩및 디코딩 장치
CN104704835B (zh) 视频编码中运动信息管理的装置与方法
DE69233620T2 (de) Adaptive Kodierung und Dekodierung von Vollbildern und Halbbildern von Videosignalen
US9485492B2 (en) Compression methods and apparatus for occlusion data
CN101375594B (zh) 处理多视图视频
DE112020002032B4 (de) Bilddecodierverfahren und Bilddecodiervorrichtung
CN101895744B (zh) 处理多视图视频
EP0821531B1 (de) Codierung und Decodierung von Trickfilmen
KR101366289B1 (ko) 비디오 신호의 디코딩/인코딩 방법 및 장치
DE60210757T2 (de) Vorrichtung zur videokodierung und -aufzeichnung
CN115567713B (zh) 基于子图像的解码方法、解码设备和存储码流的设备

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20121129

R151 Utility model maintained after payment of second maintenance fee after six years
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20121221

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20130108

R152 Utility model maintained after payment of third maintenance fee after eight years
R152 Utility model maintained after payment of third maintenance fee after eight years

Effective date: 20150204

R071 Expiry of right