WO2000046998A1 - Method and arrangement for transforming an image area - Google Patents

Method and arrangement for transforming an image area Download PDF

Info

Publication number
WO2000046998A1
WO2000046998A1 PCT/DE2000/000278 DE0000278W WO0046998A1 WO 2000046998 A1 WO2000046998 A1 WO 2000046998A1 DE 0000278 W DE0000278 W DE 0000278W WO 0046998 A1 WO0046998 A1 WO 0046998A1
Authority
WO
WIPO (PCT)
Prior art keywords
transformation
image area
horizontal
vertical
image
Prior art date
Application number
PCT/DE2000/000278
Other languages
German (de)
French (fr)
Inventor
Andre Kaup
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to JP2000597962A priority Critical patent/JP2002536926A/en
Priority to KR1020017009697A priority patent/KR20010101916A/en
Priority to EP00906176A priority patent/EP1157557A1/en
Publication of WO2000046998A1 publication Critical patent/WO2000046998A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation

Definitions

  • the invention relates to a method and an arrangement for transforming an image area
  • Such a method with an associated arrangement is known from [1].
  • the known method serves as a coding method in the MPEG standard and is essentially based on the hybrid DCT (Discrete Cosine Transformation) with motion compensation.
  • a similar procedure is used for video telephony with nx 64kbit / s (CCITT recommendation H.261), for TV contribution (CCR recommendation 723) with 34 or 45Mbit / s and for multimedia applications with 1.2Mbit / s s (ISO-MPEG-1) is used.
  • the hybrid DCT consists of a temporal processing stage, which takes advantage of the relationship between successive images, and a local processing stage, which uses correlation within an image.
  • the local processing essentially corresponds to the classic DCT coding.
  • the image is broken down into blocks of 8x8 pixels, each of which is transformed into the frequency domain using DCT.
  • the result is a matrix of 8x8 coefficients, which approximately reflect the two-dimensional spatial frequencies in the transformed image block.
  • a coefficient with frequency 0 (DC component) represents an average gray value of the image block.
  • a second step of data reduction takes the form of an adaptive quantization, by means of which the amplitude accuracy of the coefficients is further reduced or by which the small amplitudes are set to zero.
  • Quantization depends on the fill level of the output buffer: If the buffer is empty, fine quantization takes place, so that more data is generated, while if the buffer is full, it is coarser, which reduces the amount of data.
  • variable-length coding VLC
  • the time differences are only small, even if the movements in the picture are small. If, on the other hand, the movements in the picture are large, large differences arise, which in turn are difficult to code. For this reason, the picture-to-picture movement is measured (motion estimation) and compensated before the difference is formed (motion compensation).
  • the motion information is transmitted with the image information, usually only one motion vector per macro block (e.g. four 8x8 image blocks) is used.
  • the coder also has a temporal recursion loop, because the predictor must calculate the prediction value from the values of the (coded) images already transmitted.
  • An identical time recursion loop is in the decoder, so that the encoder and decoder are completely synchronized.
  • I-pictures No temporal prediction is used for the I-pictures, ie the picture values are transformed and encoded directly, as shown in picture 1. I-pictures are used to complete the decoding process without knowledge of the time
  • a temporal prediction is made on the basis of the P-pictures, the DCT is applied to the temporal prediction error.
  • B-pictures With the B-pictures the temporal bidirectional prediction error is calculated and then transformed.
  • the bidirectional prediction works basically adaptively, i.e. forward prediction, backward prediction or interpolation is permitted.
  • a picture sequence is divided into so-called GOPs (Group Of Pictures), n pictures between two I-pictures form a GOP.
  • the distance between the P-pictures is denoted by m, where there are m-1 B-pictures between the P-pictures.
  • the encoder or column-by-line transformation is preferred ...
  • the type of transformation is the same for all image data, which is disadvantageous for certain image data.
  • the object of the invention is to transform an image area, the order of vertical and horizontal transformation depends on predetermined conditions that are specifically taken into account.
  • a clear improvement in the image quality can be achieved.
  • a method for transforming an image area in which a decision unit first carries out a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation.
  • a further development consists in the fact that the image area has an irregular structure.
  • the order of the transformations can be determined depending on a predetermined or a determined value in the decision unit or on the decision unit.
  • the order of horizontal and vertical transformation can be predetermined by the decision unit in such a way that the best possible result is achieved with regard to the compression of the image area.
  • the order of the transformations is crucial, since after each vertical or horizontal transformation the pixels of the irregular image area are re-sorted and thereby one Correlation of the pixels in the local area can be lost.
  • Such a rearrangement can in particular be an alignment along a horizontal or a vertical axis (line).
  • the decision unit preferably determines the sequence of the transformations on the basis of special features or a special feature of the image area, its type of transmission or a feature characteristic of it.
  • One embodiment consists in that the image area is aligned along a horizontal line or that the alignment takes place along a vertical line. Pixels of the rows of the image area are aligned on the vertical line or pixels of the columns of the image area are aligned on the horizontal line. In particular, there is a corresponding alignment after each transformation (vertical or horizontal). By alignment, i.e. the shifting of rows or columns of the image area, a correlation in the local area may be lost (in the case of an irregular structure for the image area), since pixels that are next to one another will no longer necessarily be next to one another after alignment (e.g. correlation in
  • This information is used in particular to make the decision about the order of the transformations within the decision unit in such a way that the correlation of pixels lying next to one another in the local or time range is optimally used.
  • One embodiment also consists in the decision unit taking into account at least one of the following mechanisms for determining the sequence of vertical and horizontal transformation: a) With interlaced transmission, only every second line of an image is displayed (and transmitted). By alternating the other two lines, images are created with a time delay, which represent moving images, with the lines of two images that follow one another in time complementing one another to form a full image. In the decision unit, for example, the image header is used to determine whether there is such an interlaced transmission. If there is an interlace method, the horizontal and then the vertical transformation is carried out first. This takes advantage of the fact that in the interlaced method only every second line is transmitted and the correlation of pixels within a line is therefore higher than along a column.
  • an additional dimension is taken into account in the transformation, this additional dimension being examined with regard to the correlation of the pixels in the additional dimension.
  • the additional dimension is a time axis (3D transformation).
  • the decision unit generates side information in which the order of the transformations is contained.
  • the side information corresponds to a signal which is preferably transmitted to a receiver (decoder) and on the basis of which this receiver is able to extract the information about the sequence of the ⁇ transformations. This sequence must be taken into account accordingly in the inverse operation of the decoding.
  • the horizontal transformation results in the vertical transformation by performing a mirroring on a 45 ° axis before the transformation. Accordingly, a horizontal transformation emerges from the vertical transformation. Due to the mirroring, the transformation order is (virtually) exchanged.
  • the method is suitable for use in a coder for compressing image data, e.g. an MPEG picture encoder.
  • a corresponding decoder is preferably expanded to include an evaluation option for the side information signal in order to be able to carry out the correct sequence of vertical and horizontal transformation (or the inverse operation in each case) when decoding the image area.
  • Coders and decoders preferably operate according to an MPEG standard or an H.26x standard.
  • the transformation is a DCT transformation or an inverse IDCT transformation.
  • an arrangement for transforming an image area is specified with a decision unit by means of which a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation of the image area can be carried out.
  • Fig.l is a sketch showing steps of transforming an image area
  • FIG. 3 is a sketch illustrating a transmitter and receiver for image compression
  • 5 shows a possible form of the decision unit in the form of a processor unit.
  • Step 101 shows the irregular structure of the image area in an interlaced method, indicated by every other occupied line.
  • the image area is composed of lines 105, 106, 107 and 108.
  • step 102 the image that is actually shown in the interlace method is shown, which in turn has lines 105 to 108. The correlation of this
  • Image area with an irregular structure is particularly high along the lines. Accordingly, in the interlacing method, the lines are first transformed after they have previously been aligned along a vertical line 109. The alignment results in a column-related shift of adjacent pixels. The vertical transformation takes place in the Step 103. A horizontal alignment along a horizontal line 110 is carried out beforehand.
  • Step 101 are also interpreted as a representation of a plurality of lines 105 to 108 or a plurality of image areas 105 to 108 which are scanned along a time axis 111 at different times in each case.
  • the location information in the respective lines 105 to 108 or the respective image areas 105 to 108 is high, whereas the correlation between the individual lines 105 to 108 or image areas 105 to 108 is lower due to the scanning along the time axis 111 in the direction of the time dimension.
  • FIG. 2 represents a decision unit and the signals / values generated therefrom.
  • An input signal or a plurality of input signals 200 are used by the decision unit 201 to determine which of several transformations (horizontal, vertical, temporal) are to be carried out in which order in order to make the best possible use of the correlations in the local or time domain, ie to take high correlations into account in this way that an associated transformation is performed first.
  • the interlaced method discussed in FIG. 1 is used as an example, by means of which the decision unit 201 carries out the horizontal transformation before the vertical transformation.
  • the actual transformations are carried out in a unit 202, in which the image areas are also aligned.
  • the resulting coefficients 203 are the result of the transformation unit 202 (see also illustration in step 104). Furthermore, the decision unit 201 generates side information 203 which contains the sequence of the transformations to be carried out.
  • the arrangement shown in Figure 2 is in particular part of a transmitter (encoder) 301, as shown in Figure 3.
  • Image data 303 preferably in compressed form, is transmitted from the transmitter 301 to a receiver (decoder) 302.
  • the page information 203 described in FIG. 2 is also transmitted (here identified by a connection 304) from the transmitter 301 to the receiver 302.
  • the page information 304 is decoded there and the information about the order of the transformations is obtained therefrom.
  • Transformation emerges by mirroring the image area on a 45 ° axis (top left to bottom right). Due to the mirroring, the transformation order is (virtually) exchanged. Accordingly, the mirroring operation on the part of the receiver 302 must be taken into account.
  • FIG. 1 shows an image or with an associated image decoder in a higher degree of detail (block-based image coding method according to the H.263 standard).
  • a video data stream to be encoded with chronologically successive digitized images is fed to an image coding unit 201.
  • the digitized images are divided into macro blocks 202, each
  • Macroblock has 16x16 pixels.
  • the macro block 202 comprises 4 picture blocks 203, 204, 205 and 206, each picture block 8x8 Contains pixels to which luminance values (brightness values) are assigned.
  • each macroblock 202 comprises two chrominance blocks 207 and 208 with chrominance values (color information, color saturation) assigned to the pixels.
  • luminance value, first chrominance value and second chrominance value are referred to as color values.
  • the image blocks are fed to a transformation coding unit 209.
  • a transformation coding unit 209 In the case of differential image coding, values to be coded from image blocks of temporally preceding images are subtracted from the image blocks to be currently coded; only the difference formation information 210 is supplied to the transformation coding unit (Discrete Cosine Transformation, DCT) 209.
  • the current macroblock 202 is communicated to a motion estimation unit 229 via a connection 234.
  • Spectral coefficients 211 are formed in the transformation coding unit 209 for the picture blocks or difference picture blocks to be coded and fed to a quantization unit 212.
  • This quantization unit 212 corresponds to the quantization device according to the invention.
  • Quantized spectral coefficients 213 are supplied to both a scan unit 214 and an inverse quantization unit 215 in a reverse path.
  • a scanning method for example a "zigzag" scanning method
  • entropy coding is carried out on the scanned spectral coefficient 232 in an entropy coding unit 216 provided for this purpose.
  • the entropy-coded spectral coefficients are transmitted as coded image data 217 to a decoder via a channel, preferably a line or a radio link.
  • An inverse quantization of the quantized spectral coefficients 213 takes place in the inverse quantization unit 215.
  • Spectral coefficients 218 obtained in this way are fed to an inverse transformation coding unit 219 (inverse discrete cosine transformation, IDCT).
  • IDCT inverse discrete cosine transformation
  • Reconstructed coding values (also differential coding values) 220 are fed to an adder 221 in the differential image mode.
  • the adder 221 also receives coding values of an image block, which result from a temporally preceding image after motion compensation has already been carried out.
  • Reconstructed image blocks 222 are formed with the adder 221 and stored in an image memory 223.
  • Chrominance values 224 of the reconstructed image blocks 222 are fed from the image memory 223 to a motion compensation unit 225.
  • an interpolation takes place in an interpolation unit 227 provided for this purpose.
  • the number of brightness values contained in the respective image block is preferably doubled on the basis of the interpolation.
  • All brightness values 228 are supplied to both the motion compensation unit 225 and the motion estimation unit 229.
  • the motion estimation unit 229 also receives the image blocks of the macro block to be coded in each case (16 ⁇ 16 pixels) via the connection 234. In the motion estimation unit 229, the motion is estimated taking into account the interpolated brightness values (“motion estimation on a half-pixel basis”).
  • motion estimation on a half-pixel basis Preferably at
  • Motion estimation of absolute differences between the individual brightness values in the macro block 202 currently to be coded and the reconstructed macro block is determined from the previous image.
  • the result of the motion estimation is a motion vector 230 through which a local shift of the selected one Macroblocks from the temporally preceding picture to the macroblock 202 to be encoded is expressed.
  • Both brightness information and chrominance information relating to the macroblock determined by the motion estimation unit 229 are shifted by the motion vector 230 and subtracted from the coding values of the macroblock 202 (see data path 231).
  • FIG. 5 shows a processor unit PRZE which is suitable for carrying out transformation and / or
  • the processor unit PRZE comprises a processor CPU, a memory SPE and an input / output interface IOS, which is used in different ways via an interface IFC: an output is visible on a monitor MON and / or on a printer via a graphic interface PRT issued. • An entry is made via a mouse MAS or a keyboard TAST.
  • the processor unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS.
  • additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

The invention relates to a method for transforming an image area. A deciding unit first carries out a vertical transformation of the image area and then carries out a horizontal transformation of the image area or vice versa.

Description

Beschreibungdescription
Verfahren und Anordnung zur Transformation eines BildbereichsMethod and arrangement for transforming an image area
Die Erfindung betrifft ein Verfahren und eine Anordnung zur Transformation eines BildbereichsThe invention relates to a method and an arrangement for transforming an image area
Ein solches Verfahren mit dazugehöriger Anordnung ist bekannt aus [1] . Das bekannte Verfahren dient im MPEG-Standard als Codierverfahren und basiert im wesentlichen auf der hybriden DCT (Diskreten Cosinus Transformation) mit Bewegungskompensation. Ein ähnliches Verfahren wird für die Bildtelefonie mit n x 64kbit/s (CCITT-E pfehlung H.261), für die TV-Kontribution (CCR-Empfehlung 723) mit 34 bzw. 45Mbit/s und für Multimedia-Applikationen mit 1, 2Mbit/s (ISO-MPEG-1) verwendet. Die hybride DCT besteht aus einer zeitlichen Verarbeitungsstufe, die die Verwandtschaftsbeziehungen aufeinanderfolgender Bilder ausnutzt, und einer örtlichen Verarbeitungsstufe, die die Korrelation innerhalb eines Bildes ausnutzt.Such a method with an associated arrangement is known from [1]. The known method serves as a coding method in the MPEG standard and is essentially based on the hybrid DCT (Discrete Cosine Transformation) with motion compensation. A similar procedure is used for video telephony with nx 64kbit / s (CCITT recommendation H.261), for TV contribution (CCR recommendation 723) with 34 or 45Mbit / s and for multimedia applications with 1.2Mbit / s s (ISO-MPEG-1) is used. The hybrid DCT consists of a temporal processing stage, which takes advantage of the relationship between successive images, and a local processing stage, which uses correlation within an image.
Die örtliche Verarbeitung (Intraframe-Codierung) entspricht im wesentlichen der klassischen DCT-Codierung. Das Bild wird in Blöcke von 8x8 Bildpunkten zerlegt, die jeweils mittels DCT in den Frequenzbereich transformiert werden. Das Ergebnis ist eine Matrix von 8x8 Koeffizienten, die näherungsweise die zweidimensionalen Ortsfrequenzen im transformierten Bildblock widerspiegeln. Ein Koeffizient mit Frequenz 0 (Gleichanteil) stellt einen mittleren Grauwert des Bildblocks dar.The local processing (intraframe coding) essentially corresponds to the classic DCT coding. The image is broken down into blocks of 8x8 pixels, each of which is transformed into the frequency domain using DCT. The result is a matrix of 8x8 coefficients, which approximately reflect the two-dimensional spatial frequencies in the transformed image block. A coefficient with frequency 0 (DC component) represents an average gray value of the image block.
Nach der Transformation findet eine Datenexpansion statt. Allerdings wird in natürlichen Bildvorlagen eine Konzentration der Energie um den Gleichanteil (DC-Wert) stattfinden, während die höchstfrequenten Koeffizienten meist Null sind. In einem nächsten Schritt erfolgt eine spektrale Gewichtung der Koeffizienten, so daß die Amplitudengenauigkeit der hochfrequenten Koeffizienten verringert wird. Hierbei nützt man die Eigenschaften des menschlichen Auges aus, das hohe Ortsfrequenzen weniger genau auflöst als niedrige.After the transformation, data expansion takes place. However, a concentration of energy around the DC component will take place in natural images, while the highest-frequency coefficients are usually zero. In a next step, the coefficients are spectrally weighted, so that the amplitude accuracy of the high-frequency coefficients is reduced. Here one takes advantage of the properties of the human eye, which resolves high spatial frequencies less accurately than low ones.
Ein zweiter Schritt der Datenreduktion erfolgt in Form einer adaptiven Quantisierung, durch die die Amplitudengenauigkeit der Koeffizienten weiter verringert wird bzw. durch die die kleinen Amplituden zu Null gesetzt werden. Das Maß derA second step of data reduction takes the form of an adaptive quantization, by means of which the amplitude accuracy of the coefficients is further reduced or by which the small amplitudes are set to zero. The measure of
Quantisierung hängt dabei vom Füllstand des Ausgangspuffers ab: Bei leerem Puffer erfolgt eine feine Quantisierung, so daß mehr Daten erzeugt werden, während bei vollem Puffer gröber quantisiert wird, wodurch sich die Datenmenge reduziert.Quantization depends on the fill level of the output buffer: If the buffer is empty, fine quantization takes place, so that more data is generated, while if the buffer is full, it is coarser, which reduces the amount of data.
Nach der Quantisierung wird der Block diagonal abgetastet ("zigzag"-Scanning) , anschließend erfolgt eine Entropiecodierung, die die eigentliche Datenreduktion bewirkt. Hierfür werden zwei Effekte ausgenutzt:After quantization, the block is scanned diagonally ("zigzag" scanning), followed by entropy coding, which causes the actual data reduction. Two effects are used for this:
1.) Die Statistik der Amplitudenwerte (hohe Amplitudenwerte treten seltener auf als kleine, so daß den seltenen Ereignissen lange und den häufigen Ereignissen kurze Codewörter zugeordnet werden (Variable-Length-Codierung, VLC) . Auf diese Weise ergibt sich im Mittel eine geringere Datenrate als bei einer Codierung mit fester Wortlänge. Die variable Rate der VLC wird anschließend im Pufferspeicher geglättet.1.) The statistics of the amplitude values (high amplitude values occur less frequently than small ones, so that long code words are assigned to the rare events and short code words to the frequent events (variable-length coding, VLC). This results in a lower data rate on average than with a fixed word length coding. The variable rate of the VLC is then smoothed in the buffer memory.
2.) Man nutzt die Tatsache aus, daß von einem bestimmten Wert an in den meisten Fällen nur noch Nullen folgen. Statt aller dieser Nullen überträgt man lediglich einen EOB-Code (End Of Block) , was zu einem signifikanten Codiergewinn bei der Kompression der Bilddaten führt. Statt der Ausgangsrate von 512bit sind in dem angegebenen Beispiel nur βbit für diesen Block zu übertragen, was einem Kompressionsfaktor von über 11 entspricht.2.) One takes advantage of the fact that in most cases only zeros follow from a certain value. Instead of all these zeros, only an EOB code (End Of Block) is transmitted, which leads to a significant coding gain in the compression of the image data. Instead of the output rate of 512 bits, only β bits are available for this block in the example given transmitted, which corresponds to a compression factor of over 11.
Einen weiteren Kompressionsgewinn erhält man durch die zeitliche Verarbeitung (Interframe-Codierung) . Zur Codierung von Differenzbildern wird weniger Datenrate benötigt als für die Originalbilder, denn die Amplitudenwerte sind weitaus geringer.Another gain in compression is obtained from the temporal processing (interframe coding). To encode differential images, less data rate is required than for the original images, because the amplitude values are much lower.
Allerdings sind die zeitlichen Differenzen nur klein, wenn auch die Bewegungen im Bild gering sind. Sind hingegen die Bewegungen im Bild groß, so entstehen große Differenzen, die wiederum schwer zu codieren sind. Aus diesem Grund wird die Bild-zu-Bild-Bewegung gemessen (Bewegungsschätzung) und vor der Differenzbildung kompensiert (Bewegungskompensation) .However, the time differences are only small, even if the movements in the picture are small. If, on the other hand, the movements in the picture are large, large differences arise, which in turn are difficult to code. For this reason, the picture-to-picture movement is measured (motion estimation) and compensated before the difference is formed (motion compensation).
Dabei wird die Bewegungsinformation mit der Bildinformation übertragen, wobei üblicherweise nur ein Bewegungsvektor pro Makroblock (z.B. vier 8x8-Bildblöcke) verwendet wird.The motion information is transmitted with the image information, usually only one motion vector per macro block (e.g. four 8x8 image blocks) is used.
Noch kleinere Amplitudenwerte der Differenzbilder werden erhalten, wenn statt der verwendeten Prädiktion eine bewegungskompensierte bidirektionale Prädiktion benutzt wird.Even smaller amplitude values of the difference images are obtained if a motion-compensated bidirectional prediction is used instead of the prediction used.
Bei einem bewegungskompensierten Hybrideoder wird nicht das Bildsignal selbst transformiert, sondern das zeitlicheIn the case of a motion-compensated hybrid, it is not the image signal itself that is transformed, but the temporal one
Differenzsignal. Aus diesem Grund verfügt der Coder auch über eine zeitliche Rekursionsschleife, denn der Prädiktor muß den Prädiktionswert aus den Werten der bereits übertragenen (codierten) Bilder berechnen. Eine identische zeitliche Rekursionsschleife befindet sich im Decoder, so daß Coder und Decoder völlig synchronisiert sind.Differential signal. For this reason, the coder also has a temporal recursion loop, because the predictor must calculate the prediction value from the values of the (coded) images already transmitted. An identical time recursion loop is in the decoder, so that the encoder and decoder are completely synchronized.
Im MPEG-2-Codierverfahren gibt es hauptsächlich drei verschiedene Methoden, mit denen Bilder verarbeitet werden können: I-Bilder: Bei den I-Bildern wird keine zeitliche Prädiktion verwendet, d.h., die Bildwerte werden direkt transformiert und codiert, wie in Bild 1 dargestellt. I-Bilder werden verwendet, um den Decodiervorgang ohne Kenntnis der zeitlichenIn the MPEG-2 encoding process there are three main methods with which images can be processed: I-pictures: No temporal prediction is used for the I-pictures, ie the picture values are transformed and encoded directly, as shown in picture 1. I-pictures are used to complete the decoding process without knowledge of the time
Vergangenheit neu beginnen zu können, bzw. um eine Resynchronisation bei Übertragungsfehlern zu erreichen.To be able to start over with the past, or to achieve resynchronization in the event of transmission errors.
P-Bilder: Anhand der P-Bilder wird eine zeitliche Prädiktion vorgenommen, die DCT wird auf den zeitlichen Prädiktionsfehler angewandt.P-pictures: A temporal prediction is made on the basis of the P-pictures, the DCT is applied to the temporal prediction error.
B-Bilder: Bei den B-Bildern wird der zeitliche bidirektionale Prädiktionsfehler berechnet und anschließend transformiert. Die bidirektionale Prädiktion arbeitet grundsätzlich adaptiv, d.h. es wird eine Vorwärtsprädiktion, eine Rückwärtsprädiktion oder eine Interpolation zugelassen.B-pictures: With the B-pictures the temporal bidirectional prediction error is calculated and then transformed. The bidirectional prediction works basically adaptively, i.e. forward prediction, backward prediction or interpolation is permitted.
Ein Bildsequenz wird bei der MPEG-2-Codierung in sog. GOPs (Group Of Pictures) eingeteilt, n Bilder zwischen zwei I-Bildern bilden eine GOP. Der Abstand zwischen den P-Bildern wird mit m bezeichnet, wobei sich jeweils m-1 B-Bilder zwischen den P-Bildern befinden. Die MPEG-Syntax überläßt es jedoch dem Anwender, wie m und n gewählt werden. m=l bedeutet, daß keine B-Bilder verwendet werden, und n=l bedeutet, daß nur I-Bilder codiert werden.In MPEG-2 coding, a picture sequence is divided into so-called GOPs (Group Of Pictures), n pictures between two I-pictures form a GOP. The distance between the P-pictures is denoted by m, where there are m-1 B-pictures between the P-pictures. However, the MPEG syntax leaves it up to the user how m and n are chosen. m = 1 means that no B-pictures are used, and n = 1 means that only I-pictures are encoded.
Bevorzugt erfolgt im Rahmen der DCT-Transformation auf Seite des Encoders eine spalten- bzw. zeilenweise Transformation... Dabei erfolgt die Art der Transformation für alle Bilddaten gleich, was für bestimmte Bilddaten von Nachteil ist.In the context of the DCT transformation, the encoder or column-by-line transformation is preferred ... The type of transformation is the same for all image data, which is disadvantageous for certain image data.
Die Aufgabe der Erfindung besteht darin, einen Bildbereich zutransformieren, wobei die Reihenfolge von vertikaler und horizontaler Transformation von vorgegebenen Bedingungen abhängt, die gezielt berücksichtigt werden.The object of the invention is to transform an image area, the order of vertical and horizontal transformation depends on predetermined conditions that are specifically taken into account.
Dabei kann eine deutliche Verbesserung der Bildqualität erreicht werden.A clear improvement in the image quality can be achieved.
Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung ergeben sich auch aus den abhängigen Ansprüchen.This object is achieved in accordance with the features of the independent claims. Further developments of the invention also result from the dependent claims.
Zur Lösung der Aufgabe wird ein Verfahren zur Transformation eines Bildbereichs angegeben, bei dem von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.To solve the problem, a method for transforming an image area is specified in which a decision unit first carries out a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation.
Eine Weiterbildung besteht darin, daß der Bildbereich eine unregelmäßige Struktur aufweist.A further development consists in the fact that the image area has an irregular structure.
Dabei ist es insbesondere von Vorteil, daß, abhängig von einem vorgegebenen oder einem ermittelten Wert in der Entscheidungseinheit bzw. von der Entscheidungseinheit, die Reihenfolge der Transformationen ermittelt werden kann. So kann, abhängig von dem zu transformierenden Bildbereich und speziellen für ihn kennzeichnenden Merkmalen, die Reihenfolge von horizontaler und vertikaler Transformation durch die Entscheidungseinheit so vorgegeben werden, daß im Hinblick auf die Kompression des Bildbereichs ein möglichst gutes Ergebnis erzielt wird.It is particularly advantageous that, depending on a predetermined or a determined value in the decision unit or on the decision unit, the order of the transformations can be determined. Depending on the image area to be transformed and special features that characterize it, the order of horizontal and vertical transformation can be predetermined by the decision unit in such a way that the best possible result is achieved with regard to the compression of the image area.
Insbesondere bei einer unregelmäßigen Struktur des Bildbereichs ist die Reihenfolge der Transformationen entscheidend, da nach jeder vertikalen oder horizontalen Transformation eine Umsortierung von Bildpunkten des unregelmäßigen Bildbereichs erfolgt und dadurch eine Korrelation der Bildpunkte im Ortsbereich verlorengehen kann. Eine solche Umsortierung kann insbesondere eine Ausrichtung entlang einer horizontalen oder einer vertikalen Achse (Linie) sein.In the case of an irregular structure of the image area in particular, the order of the transformations is crucial, since after each vertical or horizontal transformation the pixels of the irregular image area are re-sorted and thereby one Correlation of the pixels in the local area can be lost. Such a rearrangement can in particular be an alignment along a horizontal or a vertical axis (line).
Von der Entscheidungseinheit wird vorzugsweise anhand spezieller Merkmale bzw. eines speziellen Merkmals des Bildbereichs, seiner Übertragungsart oder eines für ihn charakteristischen Merkmals die Reihenfolge der Transformationen ermittelt.The decision unit preferably determines the sequence of the transformations on the basis of special features or a special feature of the image area, its type of transmission or a feature characteristic of it.
Eine Ausgestaltung besteht darin, daß die Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt bzw. daß die Ausrichtung entlang einer vertikalen Linie erfolgt. Dabei werden Bildpunkte der Zeilen des Bildbereichs an der vertikalen Linie ausgerichtet bzw. Bildpunkte der Spalten des Bildbereichs an der horizontalen Linie ausgerichtet. Insbesondere erfolgt nach jeder Transformation (vertikal oder horizontal) eine entsprechende Ausrichtung. Durch die Ausrichtung, d.h. die Verschiebung von Zeilen bzw. Spalten des Bildbereichs, geht eine Korrelation im Ortsbereich unter Umständen verloren (bei einer unregelmäßigen Struktur für den Bildbereich) , da ursprünglich nebeneinander liegende Bildpunkte nach der Ausrichtung nicht mehr zwangsläufig nebeneinander liegen werden (z.B. Korrelation imOne embodiment consists in that the image area is aligned along a horizontal line or that the alignment takes place along a vertical line. Pixels of the rows of the image area are aligned on the vertical line or pixels of the columns of the image area are aligned on the horizontal line. In particular, there is a corresponding alignment after each transformation (vertical or horizontal). By alignment, i.e. the shifting of rows or columns of the image area, a correlation in the local area may be lost (in the case of an irregular structure for the image area), since pixels that are next to one another will no longer necessarily be next to one another after alignment (e.g. correlation in
Ortsbereich) . Diese Information wird insbesondere benutzt, um die Entscheidung über die Reihenfolge der Transformationen innerhalb der Entscheidungseinheit dahingehend zu treffen, daß die Korrelation von im Orts- oder Zeitbereich nebeneinander liegenden Bildpunkten optimal ausgenutzt wird.Local area). This information is used in particular to make the decision about the order of the transformations within the decision unit in such a way that the correlation of pixels lying next to one another in the local or time range is optimally used.
Eine Ausgestaltung besteht ferner darin, daß von der Entscheidungseinheit zur Bestimmung der Reihenfolge von vertikaler und horizontaler Transformation mindestens einer der folgenden Mechanismen berücksichtigt wird: a) Bei einer Übertragung im Zeilensprungverfahren (interlaced) wird nur jede zweite Zeile eines Bildes dargestellt (und übertragen) . Durch ein Abwechseln der jeweils anderen zweiten Zeilen entstehen zeitversetzt Bilder, die Bewegtbilder darstellen, wobei sich die Zeilen jeweils zweier zeitlich aufeinanderfolgender Bilder zu einem Vollbild ergänzen. In der Entscheidungseinheit wird z.B. anhand des Bildheaders ermittelt, ob eine solche Übertragung in Zeilensprungverfahren vorliegt. Liegt ein Zeilensprungverfahren vor, so wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt. Dabei wird ausgenutzt, daß bei dem Zeilensprungverfahren nur jede zweite Zeile übertragen wird und somit die Korrelation von Bildpunkten innerhalb einer Zeile höher ist als entlang einer Spalte.One embodiment also consists in the decision unit taking into account at least one of the following mechanisms for determining the sequence of vertical and horizontal transformation: a) With interlaced transmission, only every second line of an image is displayed (and transmitted). By alternating the other two lines, images are created with a time delay, which represent moving images, with the lines of two images that follow one another in time complementing one another to form a full image. In the decision unit, for example, the image header is used to determine whether there is such an interlaced transmission. If there is an interlace method, the horizontal and then the vertical transformation is carried out first. This takes advantage of the fact that in the interlaced method only every second line is transmitted and the correlation of pixels within a line is therefore higher than along a column.
b) Ein anderer Mechanismus besteht darin, daß, wie oben beschrieben, zuerst diejenige Transformation durchgeführt wird, entlang deren Richtung die Korrelation der zu transformierenden Bildpunkte des Bildbereichs größer ist.b) Another mechanism is that, as described above, the transformation is carried out first, along the direction of which the correlation of the pixels of the image area to be transformed is greater.
Eine andere Weiterbildung besteht darin, daß bei der Transformation eine zusätzliche Dimension berücksichtigt wird, wobei diese zusätzliche Dimension im Hinblick auf die Korrelation der Bildpunkte in der zusätzlichen Dimension hin untersucht wird. Ein Beispiel besteht darin, daß die zusätzliche Dimension eine Zeitachse ist (3D-Transforation) .Another development is that an additional dimension is taken into account in the transformation, this additional dimension being examined with regard to the correlation of the pixels in the additional dimension. An example is that the additional dimension is a time axis (3D transformation).
Eine weitere Ausgestaltung besteht darin, daß von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist. Die Seiteninformation entspricht dabei einem Signal, das vorzugsweise an einen Empfänger (Decoder) übertragen wird und anhand dessen dieser Empfänger in der Lage ist, die Information über die Reihenfolge der ■ Transformationen zu entnehmen. Diese Reihenfolge ist bei der inversen Operation der Decodierung entsprechend zu berücksichtigen. Im Rahmen einer anderen Weiterbildung geht aus der horizontalen Transformation die vertikale Transformation hervor, indem vor der Transformation eine Spiegelung an einer 45°-Achse durchgeführt wird. Entsprechend geht aus der vertikalen Transformation eine horizontale Transformation hervor. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht .Another embodiment is that the decision unit generates side information in which the order of the transformations is contained. The side information corresponds to a signal which is preferably transmitted to a receiver (decoder) and on the basis of which this receiver is able to extract the information about the sequence of the ■ transformations. This sequence must be taken into account accordingly in the inverse operation of the decoding. In the context of another further development, the horizontal transformation results in the vertical transformation by performing a mirroring on a 45 ° axis before the transformation. Accordingly, a horizontal transformation emerges from the vertical transformation. Due to the mirroring, the transformation order is (virtually) exchanged.
Das Verfahren eignet sich zum Einsatz in einem Coder zur Kompression von Bilddaten, z.B. einem MPEG-Bildcoder . Ein entsprechender Decoder wird vorzugsweise erweitert um eine Auswertemöglichkeit des Seiteninformationssignals, um bei der Decodierung des Bildbereichs die richtige Reihenfolge von vertikaler und horizontaler Transformation (bzw. die jeweils dazu inverse Operation) durchführen zu können.The method is suitable for use in a coder for compressing image data, e.g. an MPEG picture encoder. A corresponding decoder is preferably expanded to include an evaluation option for the side information signal in order to be able to carry out the correct sequence of vertical and horizontal transformation (or the inverse operation in each case) when decoding the image area.
Vorzugsweise arbeiten Coder und Decoder nach einem MPEG- Standard oder nach einem H.26x-Standard.Coders and decoders preferably operate according to an MPEG standard or an H.26x standard.
Eine Weiterbildung besteht darin, daß die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist .A further development is that the transformation is a DCT transformation or an inverse IDCT transformation.
Weiterhin wird zur Lösung der Aufgabe eine Anordnung zur Transformation eines Bildbereichs angegeben mit einer Entscheidungseinheit, anhand derer eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation des Bildbereichs durchführbar sind.Furthermore, to solve the problem, an arrangement for transforming an image area is specified with a decision unit by means of which a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation of the image area can be carried out.
Diese Anordnung ist insbesondere geeignet zur Durchführung des erfindungsgemäßen Verfahrens oder einer seiner vorstehend erläuterten Weiterbildungen. Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen dargestellt und erläutert.This arrangement is particularly suitable for carrying out the method according to the invention or one of its developments explained above. Exemplary embodiments of the invention are illustrated and explained below with reference to the drawings.
Es zeigenShow it
Fig.l eine Skizze, die Schritte einer Transformation eines Bildbereichs darstellt;Fig.l is a sketch showing steps of transforming an image area;
Fig.2 eine Skizze, die eine Entscheidungseinheit und die daraus generierten Signale/Werte darstellt;2 shows a sketch which represents a decision unit and the signals / values generated therefrom;
Fig.3 eine Skizze, die einen Sender und Empfänger zur Bildkompression darstellt;3 is a sketch illustrating a transmitter and receiver for image compression;
Fig.4 eine Skizze mit einem Bildeoder und einem Bilddecoder in höherer Detaillierung;4 shows a sketch with an image encoder and an image decoder in greater detail;
Fig.5 eine mögliche Ausprägung der Entscheidungseinheit in Form einer Prozessoreinheit.5 shows a possible form of the decision unit in the form of a processor unit.
In Fig.l sind Schritte einer Transformation, insbesondere einer DCT-Transformation für einen vorgegebenen Bildbereich, welcher Bildbereich eine unregelmäßige Struktur aufweist, dargestellt. Ein Schritt 101 zeigt die unregelmäßige Struktur des Bildbereichs in einem Zeilensprungverfahren, angedeutet durch jede zweite belegte Zeile. Der Bildbereich wird dabei zusammengesetzt aus den Zeilen 105, 106, 107 und 108. In einem Schritt 102 ist das tatsächlich im Zeilensprungverfahren dargestellte Bild gezeigt, das wiederum die Zeilen 105 bis 108 aufweist. Die Korrelation dieses1 shows steps of a transformation, in particular a DCT transformation, for a predetermined image area, which image area has an irregular structure. Step 101 shows the irregular structure of the image area in an interlaced method, indicated by every other occupied line. The image area is composed of lines 105, 106, 107 and 108. In a step 102 the image that is actually shown in the interlace method is shown, which in turn has lines 105 to 108. The correlation of this
Bildbereiches mit unregelmäßiger Struktur ist entlang der Zeilen besonders hoch. Entsprechend werden bei dem Zeilensprungverfahren zuerst die Zeilen transformiert nachdem sie zuvor entlang einer vertikalen Linie 109 ausgerichtet wurden. Durch die Ausrichtung ergibt sich eine spaltenbezogene Verschiebung nebeneinanderliegender Bildpunkte. Die vertikale Transformation erfolgt in dem Schritt 103. Zuvor wird eine horizontale Ausrichtung entlang einer horizontalen Linie 110 durchgeführt.Image area with an irregular structure is particularly high along the lines. Accordingly, in the interlacing method, the lines are first transformed after they have previously been aligned along a vertical line 109. The alignment results in a column-related shift of adjacent pixels. The vertical transformation takes place in the Step 103. A horizontal alignment along a horizontal line 110 is carried out beforehand.
Auch wäre es möglich, eine Transformation entlang einer Zeitachse (zusätzlich) zu berücksichtigen. So kann derIt would also be possible to (additionally) consider a transformation along a time axis. So he can
Schritt 101 auch interpretiert werden als eine Darstellung mehrerer Zeilen 105 bis 108 bzw. mehrerer Bildbereiche 105 bis 108, die entlang einer Zeitachse 111 zu jeweils verschiedenen Zeitpunkten abgetastet werden. Die Ortsinformation in den jeweiligen Zeilen 105 bis 108 bzw. den jeweiligen Bildbereichen 105 bis 108 ist hoch, wohingegen durch die Abtastung entlang der Zeitachse 111 in Richtung der Zeitdimension niedrigere Korrelationen zwischen den einzelnen Zeilen 105 bis 108 bzw. Bildbereichen 105 bis 108 gegeben sind.Step 101 are also interpreted as a representation of a plurality of lines 105 to 108 or a plurality of image areas 105 to 108 which are scanned along a time axis 111 at different times in each case. The location information in the respective lines 105 to 108 or the respective image areas 105 to 108 is high, whereas the correlation between the individual lines 105 to 108 or image areas 105 to 108 is lower due to the scanning along the time axis 111 in the direction of the time dimension.
In Fig.2 ist eine Skizze dargestellt, die eine Entscheidungseinheit und die daraus generierten Signale / Werte darstellt. Ein Eingangssignal oder mehrere Eingangssignale 200 dienen der Entscheidungseinheit 201 zur Ermittlung, welche von mehreren Transformationen (horizontal, vertikal, zeitlich) in welcher Reihenfolge durchgeführt werden sollen, um jeweils die Korrelationen im Orts- oder Zeitbereich möglichst gut auszunutzen, d.h. hohe Korrelationen derart zu berücksichtigen, daß eine zugehörige Transformation zuerst durchgeführt wird. Als Beispiel dient das in Figur 1 diskutierte Zeilensprungverfahren, anhand dessen die Entscheidungseinheit 201 die horizontale Transformation vor der vertikalen Transformation durchführt. Die eigentlichen Transformationen werden in einer Einheit 202 durchgeführt, worin ebenfalls eine Ausrichtung der Bildbereiche erfolgt. Die sich ergebenden Koeffizienten 203 sind das Ergebnis der Transformationseinheit 202 (vergleiche auch Darstellung im Schritt 104). Ferner wird von der Entscheidungseinheit 201 eine Seiteninformation 203 erzeugt, die die Reihenfolge der durchzuführenden Transformationen beinhaltet . Die in Fig.2 dargestellte Anordnung ist insbesondere Teil eines Senders (Coders) 301, wie er in Fig.3 gezeigt ist. Von dem Sender 301 werden Bilddaten 303, vorzugsweise in komprimierter Form, zu einem Empfänger (Decoder) 302 übertragen. Die in Figur 2 beschriebene Seiteninformation 203 wird ebenfalls (hier gekennzeichnet durch eine Verbindung 304) von dem Sender 301 zu dem Empfänger 302 übertragen. Dort wird die Seiteninformation 304 decodiert und daraus die Information über die Reihenfolge der Transformationen erhalten.A sketch is shown in FIG. 2, which represents a decision unit and the signals / values generated therefrom. An input signal or a plurality of input signals 200 are used by the decision unit 201 to determine which of several transformations (horizontal, vertical, temporal) are to be carried out in which order in order to make the best possible use of the correlations in the local or time domain, ie to take high correlations into account in this way that an associated transformation is performed first. The interlaced method discussed in FIG. 1 is used as an example, by means of which the decision unit 201 carries out the horizontal transformation before the vertical transformation. The actual transformations are carried out in a unit 202, in which the image areas are also aligned. The resulting coefficients 203 are the result of the transformation unit 202 (see also illustration in step 104). Furthermore, the decision unit 201 generates side information 203 which contains the sequence of the transformations to be carried out. The arrangement shown in Figure 2 is in particular part of a transmitter (encoder) 301, as shown in Figure 3. Image data 303, preferably in compressed form, is transmitted from the transmitter 301 to a receiver (decoder) 302. The page information 203 described in FIG. 2 is also transmitted (here identified by a connection 304) from the transmitter 301 to the receiver 302. The page information 304 is decoded there and the information about the order of the transformations is obtained therefrom.
Auch sei darauf hingewiesen, daß es prinzipiell zwei Möglichkeiten zur Durchführung der Transformationen gibt: Entweder werden tatsächlich beide Transformationen (horizontal und vertikal) vertauscht. Dies führt programmtechnisch zu einem nicht unerheblichen Aufwand. Alternativ dazu kann die Reihenfolge der Transformationen festgelegt werden (anhand der Entscheidungseinheit 201), wobei die vertikale Transformation aus der horizontalenIt should also be pointed out that there are basically two options for performing the transformations: Either both transformations (horizontal and vertical) are actually interchanged. In terms of programming, this leads to a not inconsiderable effort. Alternatively, the order of the transformations can be determined (using the decision unit 201), the vertical transformation being the horizontal one
Transformation hervorgeht, indem der Bildbereich an einer 45°-Achse (links oben nach rechts unten) gespiegelt wird. Durch die Spiegelung wird (virtuell) die Transformationsreihenfolge vertauscht. Entsprechend ist die Spiegelungsoperation auf Seiten des Empfängers 302 zu berücksichtigen.Transformation emerges by mirroring the image area on a 45 ° axis (top left to bottom right). Due to the mirroring, the transformation order is (virtually) exchanged. Accordingly, the mirroring operation on the part of the receiver 302 must be taken into account.
Fig. zeigt einen Bildeoder mit einem zugehörigen Bilddecoder in höherem Detaillierungsgrad (blockbasiertes Bildcodierverfahrens gemäß H.263-Standard) .FIG. 1 shows an image or with an associated image decoder in a higher degree of detail (block-based image coding method according to the H.263 standard).
Ein zu codierender Videodatenstrom mit zeitlich aufeinanderfolgenden digitalisierten Bildern wird einer Bildcodierungseinheit 201 zugeführt. Die digitalisierten Bilder sind unterteilt in Makroblöcke 202, wobei jederA video data stream to be encoded with chronologically successive digitized images is fed to an image coding unit 201. The digitized images are divided into macro blocks 202, each
Makroblock 16x16 Bildpunkte hat. Der Makroblock 202 umfaßt 4 Bildblöcke 203, 204, 205 und 206, wobei jeder Bildblock 8x8 Bildpunkte, denen Luminanzwerte (Helligkeitswerte) zugeordnet sind, enthält. Weiterhin umfaßt jeder Makroblock 202 zwei Chrominanzblöcke 207 und 208 mit den Bildpunkten zugeordneten Chrominanzwerten (Farbinformation, Farbsättigung) .Macroblock has 16x16 pixels. The macro block 202 comprises 4 picture blocks 203, 204, 205 and 206, each picture block 8x8 Contains pixels to which luminance values (brightness values) are assigned. Furthermore, each macroblock 202 comprises two chrominance blocks 207 and 208 with chrominance values (color information, color saturation) assigned to the pixels.
Der Block eines Bildes enthält einen Luminanzwert (=Helligkeit) , einen ersten Chrominanzwert (=Farbton) und einen zweiten Chrominanzwert (=Farbsättigung) . Dabei werden Luminanzwert, erster Chrominanzwert und zweiter Chrominanzwert als Farbwerte bezeichnet.The block of an image contains a luminance value (= brightness), a first chrominance value (= hue) and a second chrominance value (= color saturation). The luminance value, first chrominance value and second chrominance value are referred to as color values.
Die Bildblöcke werden einer Transformationscodierungseinheit 209 zugeführt. Bei einer Differenzbildcodierung werden zu codierende Werte von Bildblöcken zeitlich vorangegangener Bilder von den aktuell zu codierenden Bildblöcken abgezogen, es wird nur die Differenzbildungsinformation 210 der Trans- formationscodierungseinheit (Diskrete Cosinus Transformation, DCT) 209 zugeführt. Dazu wird über eine Verbindung 234 der aktuelle Makroblock 202 einer Bewegungsschätzungseinheit 229 mitgeteilt. In der Transformationscodierungseinheit 209 werden für die zu codierenden Bildblöcke bzw. Differenzbildblöcke Spektralkoeffizienten 211 gebildet und einer Quantisierungseinheit 212 zugeführt. Diese Quantisierungseinheit 212 entspricht der erfindungsgemäßen Vorrichtung zur Quantisierung.The image blocks are fed to a transformation coding unit 209. In the case of differential image coding, values to be coded from image blocks of temporally preceding images are subtracted from the image blocks to be currently coded; only the difference formation information 210 is supplied to the transformation coding unit (Discrete Cosine Transformation, DCT) 209. For this purpose, the current macroblock 202 is communicated to a motion estimation unit 229 via a connection 234. Spectral coefficients 211 are formed in the transformation coding unit 209 for the picture blocks or difference picture blocks to be coded and fed to a quantization unit 212. This quantization unit 212 corresponds to the quantization device according to the invention.
Quantisierte Spektralkoeffizienten 213 werden sowohl einer Scaneinheit 214 als auch einer inversen Quantisierungseinheit 215 in einem Rückwärtspfad zugeführt. Nach einem Scanverfahren, z.B. einem "zigzag"-Scanverfahren, wird auf den gescannten Spektralkoeffizienten 232 eine Entropiecodierung in einer dafür vorgesehenen Entropiecodierungseinheit 216 durchgeführt. Die entropiecodierten Spektralkoeffizienten werden als codierte Bilddaten 217 über einen Kanal, vorzugsweise eine Leitung oder eine Funkstrecke, zu einem Decoder übertragen. In der inversen Quantisierungseinheit 215 erfolgt eine inverse Quantisierung der quantisierten Spektralkoeffizienten 213. So gewonnene Spektralkoeffizienten 218 werden einer inversen Transformationscodierungseinheit 219 (Inverse Diskrete Cosinus Transformation, IDCT) zugeführt.Quantized spectral coefficients 213 are supplied to both a scan unit 214 and an inverse quantization unit 215 in a reverse path. After a scanning method, for example a "zigzag" scanning method, entropy coding is carried out on the scanned spectral coefficient 232 in an entropy coding unit 216 provided for this purpose. The entropy-coded spectral coefficients are transmitted as coded image data 217 to a decoder via a channel, preferably a line or a radio link. An inverse quantization of the quantized spectral coefficients 213 takes place in the inverse quantization unit 215. Spectral coefficients 218 obtained in this way are fed to an inverse transformation coding unit 219 (inverse discrete cosine transformation, IDCT).
Rekonstruierte Codierungswerte (auch Differenzcodierungswerte) 220 werden im Differenzbildmodus einen Addierer 221 zugeführt. Der Addierer 221 erhält ferner Codierungswerte eines Bildblocks, die sich aus einem zeitlich vorangegangenen Bild nach einer bereits durchgeführten Bewegungskompensation ergeben. Mit dem Addierer 221 werden rekonstruierte Bildblöcke 222 gebildet und in einem Bildspeicher 223 abgespeichert.Reconstructed coding values (also differential coding values) 220 are fed to an adder 221 in the differential image mode. The adder 221 also receives coding values of an image block, which result from a temporally preceding image after motion compensation has already been carried out. Reconstructed image blocks 222 are formed with the adder 221 and stored in an image memory 223.
Chrominanzwerte 224 der rekonstruierten Bildblöcke 222 werden aus dem Bildspeicher 223 einer Bewegungskompensationseinheit 225 zugeführt. Für Helligkeitswerte 226 erfolgt eine Interpolation in einer dafür vorgesehenen Interpolationseinheit 227. Anhand der Interpolation wird die Anzahl in dem jeweiligen Bildblock enthaltener Helligkeitswerte vorzugsweise verdoppelt. Alle Helligkeitswerte 228 werden sowohl der Bewegungskompensationseinheit 225 als auch der Bewegungsschätzungseinheit 229 zugeführt. Die Bewegungsschätzungseinheit 229 erhält außerdem die Bildblöcke des jeweils zu codierenden Makroblocks (16x16 Bildpunkte) über die Verbindung 234. In der Bewegungsschätzungseinheit 229 erfolgt die Bewegungsschätzung unter Berücksichtigung der interpolierten Helligkeitswerte ("Bewegungsschätzung auf Halbpixelbasis"). Vorzugsweise werden bei derChrominance values 224 of the reconstructed image blocks 222 are fed from the image memory 223 to a motion compensation unit 225. For brightness values 226, an interpolation takes place in an interpolation unit 227 provided for this purpose. The number of brightness values contained in the respective image block is preferably doubled on the basis of the interpolation. All brightness values 228 are supplied to both the motion compensation unit 225 and the motion estimation unit 229. The motion estimation unit 229 also receives the image blocks of the macro block to be coded in each case (16 × 16 pixels) via the connection 234. In the motion estimation unit 229, the motion is estimated taking into account the interpolated brightness values (“motion estimation on a half-pixel basis”). Preferably at
Bewegungsschätzung absolute Differenzen der einzelnen Helligkeitswerte in dem aktuell zu codierenden Makroblock 202 und dem rekonstruierten Makroblock aus dem zeitlich vorangegangenen Bild ermittelt.Motion estimation of absolute differences between the individual brightness values in the macro block 202 currently to be coded and the reconstructed macro block is determined from the previous image.
Das Ergebnis der Bewegungsschätzung ist ein Bewegungsvektor 230, durch den eine örtliche Verschiebung des ausgewählten Makroblocks aus dem zeitlich vorangegangenen Bild zu dem zu codierenden Makroblock 202 zum Ausdruck kommt.The result of the motion estimation is a motion vector 230 through which a local shift of the selected one Macroblocks from the temporally preceding picture to the macroblock 202 to be encoded is expressed.
Sowohl Helligkeitsinformation als auch Chrominanzinformation bezogen auf den durch die Bewegungsschätzungseinheit 229 ermittelten Makroblock werden um den Bewegungsvektor 230 verschoben und von den Codierungswerten des Makroblocks 202 subtrahiert (siehe Datenpfad 231) .Both brightness information and chrominance information relating to the macroblock determined by the motion estimation unit 229 are shifted by the motion vector 230 and subtracted from the coding values of the macroblock 202 (see data path 231).
Fig.5 zeigt eine Prozessoreinheit PRZE, die geeignet ist zur Durchführung von Transformation und/oder5 shows a processor unit PRZE which is suitable for carrying out transformation and / or
Kompression/Dekompression. Die Prozessoreinheit PRZE umfaßt einen Prozessor CPU, einen Speicher SPE und eine Input/Output-Schnittstelle IOS, die über ein Interface IFC auf unterschiedliche Art und Weise genutzt wird: Über eine Grafikschnittstelle wird eine Ausgabe auf einem Monitor MON sichtbar und/oder auf einem Drucker PRT ausgegeben. Eine Eingabe erfolgt über eine Maus MAS oder eine Tastatur TAST. Auch verfügt die Prozessoreinheit PRZE über einen Datenbus BUS, der die Verbindung von einem Speicher MEM, dem Prozessor CPU und der Input/Output-Schnittstelle IOS gewährleistet. Weiterhin sind an den Datenbus BUS zusätzliche Komponenten anschließbar, z.B. zusätzlicher Speicher, Datenspeicher (Festplatte) oder Scanner. Compression / decompression. The processor unit PRZE comprises a processor CPU, a memory SPE and an input / output interface IOS, which is used in different ways via an interface IFC: an output is visible on a monitor MON and / or on a printer via a graphic interface PRT issued. An entry is made via a mouse MAS or a keyboard TAST. The processor unit PRZE also has a data bus BUS, which ensures the connection of a memory MEM, the processor CPU and the input / output interface IOS. Furthermore, additional components can be connected to the data bus BUS, for example additional memory, data storage (hard disk) or scanner.
Literaturverzeichnis :Bibliography :
[1] J. De Lameillieure, R. Schäfer: "MPEG-2-Bildcodierung für das digitale Fernsehen", Fernseh- und Kino-Technik, 48. Jahrgang, Nr.3/1994, Seiten 99-107. [1] J. De Lameillieure, R. Schäfer: "MPEG-2 image coding for digital television", television and cinema technology, 48th year, No. 3/1994, pages 99-107.

Claims

Patentansprüche claims
1. Verfahren zur Transformation eines Bildbereichs, bei dem abhängig von einer Entscheidungseinheit zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchgeführt werden.1. Method for transforming an image area, in which, depending on a decision unit, first a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation are carried out.
2. Verfahren nach Anspruch 1, bei dem der Bildbereich eine unregelmäßige Struktur aufweist .2. The method of claim 1, wherein the image area has an irregular structure.
3. Verfahren nach Anspruch 1 oder 2, a) bei dem vor oder nach der vertikalen Transformation eine Ausrichtung des Bildbereichs entlang einer horizontalen Linie erfolgt; b) bei dem vor oder nach der horizontalen Transformation eine Ausrichtung des Bildbereichs entlang einer vertikalen Linie erfolgt.3. The method according to claim 1 or 2, a) in which, before or after the vertical transformation, the image area is aligned along a horizontal line; b) in which the image area is aligned along a vertical line before or after the horizontal transformation.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem von der Entscheidungseinheit mindestens einer der folgenden Mechanismen durchgeführt werden: a) falls der Bildbereich im Zeilensprungverfahren vorliegt, wird zuerst die horizontale und anschließend die vertikale Transformation durchgeführt; b) es wird zuerst diejenige (horizontale oder vertikale) Transformation durchgeführt entlang derer eine4. The method as claimed in one of claims 1 to 3, in which the decision unit carries out at least one of the following mechanisms: a) if the image area is interlaced, first the horizontal and then the vertical transformation is carried out; b) the (horizontal or vertical) transformation is carried out first along which one
Korrelation von Bildpunkten des Bildbereichs stärker ist.Correlation of pixels of the image area is stronger.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei der Transformation eine zusätzliche Dimension berücksichtigt wird. 5. The method according to any one of the preceding claims, in which an additional dimension is taken into account in the transformation.
6. Verfahren nach Anspruch 5, bei dem die zusätzliche Transformation entlang einer Zeitdimension durchgeführt wird.6. The method of claim 5, wherein the additional transformation is performed along a time dimension.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem von der Entscheidungseinheit eine Seiteninformation erzeugt wird, in der die Reihenfolge der Transformationen enthalten ist.7. The method according to any one of the preceding claims, in which the decision unit generates side information in which the order of the transformations is contained.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die horizontale Transformation aus der vertikalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.8. The method according to any one of the preceding claims, wherein the horizontal transformation results from the vertical transformation by performing a mirroring on a 45-degree axis before the transformation.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die vertikale Transformation aus der horizontalen Transformation hervorgeht, indem vor der Transformation eine Spiegelung an einer 45-Grad-Achse durchgeführt wird.9. The method according to any one of the preceding claims, wherein the vertical transformation emerges from the horizontal transformation by performing a mirroring on a 45-degree axis before the transformation.
10. Verfahren nach einem der vorhergehenden Ansprüche zum Einsatz in einem Coder zur Kompression von Bilddaten.10. The method according to any one of the preceding claims for use in a coder for compressing image data.
11. Verfahren nach einem der Ansprüche 7 bis 10 bei dem die Seiteninformation in einem Decoder zur Dekompression des Bildbereichs eingesetzt wird.11. The method according to any one of claims 7 to 10, wherein the page information is used in a decoder to decompress the image area.
12. Verfahren nach Anspruch 10 oder 11, bei dem Arbeitsweisen des Coders und/oder des Decoders nach einem MPEG-Standard oder nach einem H.26x-Standard bestimmt sind.12. The method according to claim 10 or 11, wherein the operations of the encoder and / or the decoder are determined according to an MPEG standard or according to an H.26x standard.
13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Transformation eine DCT-Transformation bzw. eine dazu inverse IDCT-Transformation ist.13. The method according to any one of the preceding claims, wherein the transformation is a DCT transformation or an inverse IDCT transformation.
14. Anordnung zur Transformation eines Bildbereichs, mit einer Entscheidungseinheit, die derart eingerichtet ist, daß abhängig von einem von der Entscheidungseinheit ermittelten Wert zuerst eine vertikale Transformation des Bildbereichs und anschließend eine horizontale Transformation des Bildbereichs oder umgekehrt zuerst die horizontale Transformation und danach die vertikale Transformation durchführbar sind. 14. Arrangement for transforming an image area, with a decision unit which is set up in such a way that, depending on a value determined by the decision unit, first a vertical transformation of the image area and then a horizontal transformation of the image area or vice versa, first the horizontal transformation and then the vertical transformation can be carried out.
PCT/DE2000/000278 1999-02-01 2000-02-01 Method and arrangement for transforming an image area WO2000046998A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000597962A JP2002536926A (en) 1999-02-01 2000-02-01 Method and apparatus for converting image regions
KR1020017009697A KR20010101916A (en) 1999-02-01 2000-02-01 Method and arrangement for transforming an image area
EP00906176A EP1157557A1 (en) 1999-02-01 2000-02-01 Method and arrangement for transforming an image area

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19903859A DE19903859A1 (en) 1999-02-01 1999-02-01 Method and arrangement for transforming an image area
DE19903859.7 1999-02-01

Publications (1)

Publication Number Publication Date
WO2000046998A1 true WO2000046998A1 (en) 2000-08-10

Family

ID=7895990

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/000278 WO2000046998A1 (en) 1999-02-01 2000-02-01 Method and arrangement for transforming an image area

Country Status (6)

Country Link
EP (1) EP1157557A1 (en)
JP (1) JP2002536926A (en)
KR (1) KR20010101916A (en)
CN (1) CN1339225A (en)
DE (1) DE19903859A1 (en)
WO (1) WO2000046998A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013107719A1 (en) 2013-07-19 2015-01-22 Deutsche Telekom Ag Method and device for block-based decorrelation of image signals

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10904563B2 (en) * 2019-01-02 2021-01-26 Tencent America LLC Method and apparatus for improved zero out transform

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5126962A (en) * 1990-07-11 1992-06-30 Massachusetts Institute Of Technology Discrete cosine transform processing system
DE4437827A1 (en) * 1994-10-14 1996-04-18 Hertz Inst Heinrich Circuitry for a television system using transformation encoded digital image data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5126962A (en) * 1990-07-11 1992-06-30 Massachusetts Institute Of Technology Discrete cosine transform processing system
DE4437827A1 (en) * 1994-10-14 1996-04-18 Hertz Inst Heinrich Circuitry for a television system using transformation encoded digital image data

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BI M ET AL: "COEFFICIENT GROUPING METHOD FOR SHAPEADAPTIVE DCT", ELECTRONICS LETTERS,GB,IEE STEVENAGE, vol. 32, no. 3, 1 February 1996 (1996-02-01), pages 201 - 202, XP000554939, ISSN: 0013-5194 *
ICHINO K ET AL: "2D/3D hybrid video coding based on motion compensation", PROCEEDINGS 1999 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (CAT. 99CH36348), PROCEEDINGS OF 6TH INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP'99), KOBE, JAPAN, 24-28 OCT. 1999, 1999, Piscataway, NJ, USA, IEEE, USA, pages 644 - 648 vol.2, XP002139879, ISBN: 0-7803-5467-2 *
KAUFF P ET AL: "FUNCTIONAL CODING OF VIDEO USING A SHAPE-ADAPTIVE DCT ALGORITHM AND AN OBJECT-BASED MOTION PREDICTION TOOLBOX", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY,US,IEEE INC. NEW YORK, vol. 7, no. 1, 1 February 1997 (1997-02-01), pages 181 - 195, XP000678890, ISSN: 1051-8215 *
MATSUDA I ET AL: "DCT coding of still images based on variable-shape-blocks", PROCEEDINGS OF 5TH INTERNATIONAL CONFERENCE ON HIGH TECHNOLOGY: IMAGING SCIENCE AND TECHNOLOGY, EVOLUTION AND PROMISE. WORLD TECHNO FAIR IN CHIBA '96, PROCEEDINGS OF IMAGING SCIENCE AND TECHNOLOGY: EVOLUTION AND PROMISE, CHIBA, JAPAN, 11-14 SEPT. 199, 1996, Chiba, Japan, Chiba Univ, Japan, pages 204 - 211, XP002139878 *
YI J -W ET AL: "A new coding algorithm for arbitrarily shaped image segments", SIGNAL PROCESSING. IMAGE COMMUNICATION,NL,ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, vol. 12, no. 3, 1 June 1998 (1998-06-01), pages 231 - 242, XP004122850, ISSN: 0923-5965 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013107719A1 (en) 2013-07-19 2015-01-22 Deutsche Telekom Ag Method and device for block-based decorrelation of image signals

Also Published As

Publication number Publication date
KR20010101916A (en) 2001-11-15
EP1157557A1 (en) 2001-11-28
CN1339225A (en) 2002-03-06
DE19903859A1 (en) 2000-09-21
JP2002536926A (en) 2002-10-29

Similar Documents

Publication Publication Date Title
DE69735838T2 (en) Video encoder with transform coefficient prediction
DE69535228T2 (en) Image conversion device
DE69738494T2 (en) Video encoding and video decoding device
DE60027955T2 (en) Method and apparatus for context-based inter / intra coding mode selection
EP1025708B1 (en) Method and device for processing a digitized image
DE4442643B4 (en) Method for estimating motion in a moving image
EP1774790B1 (en) Coding and decoding method and device
DE69915843T2 (en) PART BAND CODING / decoding
DE19717608B4 (en) Perception error handling method and picture coding apparatus using this method
EP0346637B1 (en) Method for processing and transmitting a picture sequence
EP1101196B1 (en) Method and device for estimating motion in a digitized image with pixels
DE10022520A1 (en) Method for spatially scalable moving image coding e.g. for audio visual and video objects, involves at least two steps of different local resolution
EP1285537B1 (en) Method and an arrangement for the coding and decoding of a series of images
EP1110407B1 (en) Method and array for coding and decoding a digitized image using an overall motion vector
DE69909880T2 (en) Decoding a compressed digital picture signal
EP1116184A1 (en) Method and array for processing a digitized image with image points
EP0346636B1 (en) Method for processing and transmitting a picture sequence
EP1157557A1 (en) Method and arrangement for transforming an image area
DE69923725T2 (en) Method and apparatus for extracting color contour information from video fields
WO2001062009A1 (en) Method and device for coding or coding and decoding a sequence of numbers
WO2001049038A1 (en) Method, device and computer programme generation for prediction in encoding an image divided into image blocks
DE3726601A1 (en) PROVISIONAL CODING SYSTEM FOR TELEVISION SIGNALS
DE10219640A1 (en) Video coding and decoding method and computer program product
DE19944300C2 (en) Method, arrangement and computer program product for motion estimation when encoding an image object in an image
WO2001028252A1 (en) Progressive fault-tolerant encoding or decoding of a sequence of images

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00803213.0

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2000906176

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09889934

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2000 597962

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020017009697

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 1020017009697

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000906176

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2000906176

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020017009697

Country of ref document: KR