WO2025206716A1 - Method and apparatus for matrix-based intra prediction on basis of various reference pixels - Google Patents

Method and apparatus for matrix-based intra prediction on basis of various reference pixels

Info

Publication number
WO2025206716A1
WO2025206716A1 PCT/KR2025/003814 KR2025003814W WO2025206716A1 WO 2025206716 A1 WO2025206716 A1 WO 2025206716A1 KR 2025003814 W KR2025003814 W KR 2025003814W WO 2025206716 A1 WO2025206716 A1 WO 2025206716A1
Authority
WO
WIPO (PCT)
Prior art keywords
current block
block
reference template
intra prediction
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2025/003814
Other languages
French (fr)
Korean (ko)
Inventor
최정아
허진
박승욱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020250037374A external-priority patent/KR20250144302A/en
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Publication of WO2025206716A1 publication Critical patent/WO2025206716A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • video data Since video data has a large amount of data compared to voice data or still image data, it requires a lot of hardware resources, including memory, to store or transmit it without processing for compression.
  • the encoder compresses the video data and stores or transmits it, and the decoder receives the compressed video data, decompresses it, and plays it back.
  • video compression technologies include H.264/AVC, HEVC (High Efficiency Video Coding), and VVC (Versatile Video Coding), which improves encoding efficiency by about 30% compared to HEVC.
  • the present disclosure provides a method and device for image encoding or decoding for efficiently encoding or decoding an image and improving objective and subjective image quality of a restored image, and a recording medium for storing a bitstream generated by the image encoding method/device.
  • FIG. 1 is an exemplary block diagram of an image encoding device capable of implementing the techniques of the present disclosure.
  • FIG. 5 is an exemplary block diagram of an image decoding device capable of implementing the techniques of the present disclosure.
  • FIG. 6 is a flowchart of a matrix-based intra prediction method according to one embodiment of the present disclosure.
  • FIGS. 7A, 7B, and 7C are diagrams illustrating reference templates adjacent to a current block according to one embodiment of the present disclosure.
  • FIG. 8 is a drawing for explaining a reference template that is not adjacent to a current block according to one embodiment of the present disclosure.
  • FIG. 9 is a drawing for explaining a reference template indicated by movement information of a surrounding block according to one embodiment of the present disclosure.
  • FIG. 10 is a flowchart of an image encoding method according to one embodiment of the present disclosure.
  • Each component of the video encoding device may be implemented in hardware, software, or a combination of hardware and software. Furthermore, the functions of each component may be implemented in software, with a microprocessor executing the software functions corresponding to each component.
  • information commonly applied to all blocks within a single slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one or more pictures is encoded in the Picture Parameter Set (PPS) or the picture header.
  • information commonly referenced by multiple pictures is encoded in a Sequence Parameter Set (SPS).
  • SPS Sequence Parameter Set
  • VPS Video Parameter Set
  • information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header. Syntaxes included in an SPS, PPS, slice header, tile or tile group header may be referred to as high level syntax.
  • the picture segmentation unit (110) divides each picture constituting an image into a plurality of CTUs having a predetermined size, and then recursively divides the CTUs using a tree structure.
  • a leaf node in the tree structure becomes a CU, which is a basic unit of encoding.
  • the tree structure may be a QuadTree (QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, a BinaryTree (BT) in which an upper node is divided into two lower nodes, or a TernaryTree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure that mixes two or more of the QT structures, BT structures, and TT structures.
  • QTBT QuadTree plus BinaryTree
  • TT QuadTree TernaryTree
  • BTTT may be combined and referred to as a MTT (Multiple-Type Tree).
  • Figure 2 is a drawing for explaining a method of dividing a block using the QTBTTT structure.
  • splitting directions in the BT structure and/or the TT structure there may be multiple splitting directions in the BT structure and/or the TT structure. For example, there may be two directions in which the block of the corresponding node is split horizontally and two directions in which the block is split vertically.
  • a second flag (mtt_split_flag) indicating whether nodes have been split, and if splitting has occurred, a flag indicating the splitting direction (vertical or horizontal) and/or a flag indicating the splitting type (Binary or Ternary) are encoded by the entropy encoding unit (155) and signaled to the image decoding device.
  • a CU split flag (split_cu_flag) indicating whether the node is split may be encoded. If the CU split flag (split_cu_flag) value indicates that the node is not split, the block of the corresponding node becomes a leaf node in the split tree structure and becomes a CU (coding unit), which is a basic unit of encoding. If the CU split flag (split_cu_flag) value indicates that the node is split, the video encoding device starts encoding from the first flag in the above-described manner.
  • a type that horizontally splits the block of the corresponding node into two blocks of the same size i.e., symmetric horizontal splitting
  • a type that vertically splits it i.e., symmetric vertical splitting
  • a split flag (split_flag) indicating whether each node of the BT structure is split into blocks of a lower layer and split type information indicating the type of split are encoded by the entropy encoding unit (155) and transmitted to the image decoding device.
  • split_flag split flag
  • split_flag splits the block of the corresponding node into two blocks of an asymmetrical shape.
  • the asymmetric shape may include a shape that splits the block of the corresponding node into two rectangular blocks with a size ratio of 1:3, or a shape that splits the block of the corresponding node in a diagonal direction.
  • a CU can have various sizes depending on the QTBT or QTBTTT partitioning from the CTU.
  • the block corresponding to the CU to be encoded or decoded i.e., the leaf node of the QTBTTT
  • the current block may be rectangular as well as square.
  • each current block within a picture can be predictively coded. Prediction of the current block can typically be performed using either intra-prediction (using data from the picture containing the current block) or inter-prediction (using data from a picture coded before the picture containing the current block). Inter-prediction encompasses both unidirectional and bidirectional prediction.
  • the intra prediction unit (122) predicts pixels within the current block using pixels (reference pixels) located around the current block within the current picture including the current block.
  • the multiple intra prediction modes may include two non-directional modes including the Planar mode and the DC mode, and 65 directional modes.
  • the surrounding pixels to be used and the calculation formula are defined differently depending on each prediction mode.
  • directional modes For efficient directional prediction for a rectangular current block, directional modes (intra prediction modes 67 to 80 and -1 to -14) indicated by dotted arrows in Fig. 3b may be additionally used. These may be referred to as "wide-angle intra-prediction modes.”
  • the arrows point to corresponding reference samples used for prediction, and do not indicate the prediction direction. The prediction direction is opposite to the direction indicated by the arrows.
  • Wide-angle intra-prediction modes are modes that perform prediction in the opposite direction of a specific directional mode without additional bit transmission when the current block is rectangular.
  • some wide-angle intra-prediction modes available for the current block may be determined based on the ratio of the width and height of the rectangular current block. For example, wide-angle intra prediction modes (intra prediction modes 67 to 80) having an angle less than 45 degrees are available when the current block is a rectangular shape whose height is smaller than its width, and wide-angle intra prediction modes (intra prediction modes -1 to -14) having an angle greater than -135 degrees are available when the current block is a rectangular shape whose width is larger than its height.
  • the intra prediction unit (122) can determine the intra prediction mode to be used to encode the current block. In some examples, the intra prediction unit (122) can encode the current block using multiple intra prediction modes and select an appropriate intra prediction mode to be used from the tested modes. For example, the intra prediction unit (122) can calculate bit-rate distortion values using rate-distortion analysis for multiple tested intra prediction modes and select the intra prediction mode with the best bit-rate distortion characteristics among the tested modes.
  • the inter prediction unit (124) generates a prediction block for the current block using a motion compensation process.
  • the inter prediction unit (124) searches for a block most similar to the current block within reference pictures that were encoded and decoded before the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector (MV) corresponding to the displacement between the current block within the current picture and the prediction block within the reference picture is generated.
  • MV motion vector
  • motion estimation is performed on the luma component, and the motion vector calculated based on the luma component is used for both the luma component and the chroma component.
  • the motion information including information on the reference picture used to predict the current block and information on the motion vector is encoded by the entropy encoding unit (155) and transmitted to the image decoding device.
  • the inter prediction unit (124) may perform interpolation on a reference picture or a reference block to improve prediction accuracy. That is, subsamples between two consecutive integer samples are interpolated by applying filter coefficients to a plurality of consecutive integer samples including the two integer samples.
  • the motion vector can be expressed up to a precision in decimal units rather than a precision in integer sample units.
  • the precision or resolution of the motion vector can be set differently for each target region to be encoded, such as a slice, tile, CTU, CU, etc.
  • AMVR adaptive motion vector resolution
  • information on the motion vector resolution to be applied to each target region must be signaled for each target region. For example, when the target region is a CU, information on the motion vector resolution applied to each CU is signaled.
  • Information on the motion vector resolution may be information indicating the precision of a differential motion vector, which will be described later.
  • the inter prediction unit (124) can perform inter prediction using bi-prediction.
  • bi-prediction two reference pictures and two motion vectors indicating the block position most similar to the current block within each reference picture are used.
  • the inter prediction unit (124) selects a first reference picture and a second reference picture from reference picture list 0 (RefPicList0) and reference picture list 1 (RefPicList1), respectively, and searches for a block similar to the current block within each reference picture to generate a first reference block and a second reference block. Then, the first reference block and the second reference block are averaged or weighted averaged to generate a prediction block for the current block.
  • reference picture list 0 may be composed of pictures that are before the current picture in display order among the restored pictures
  • reference picture list 1 may be composed of pictures that are after the current picture in display order among the restored pictures.
  • restored pictures that are after the current picture in display order may be additionally included in reference picture list 0, and conversely, restored pictures that are before the current picture may be additionally included in reference picture list 1.
  • the motion information of the current block can be transmitted to the image decoding device by encoding information that can identify the neighboring block. This method is called 'merge mode'.
  • the inter prediction unit (124) selects a predetermined number of merge candidate blocks (hereinafter referred to as 'merge candidates') from the surrounding blocks of the current block.
  • all or part of the left block (A0), the lower left block (A1), the upper block (B0), the upper right block (B1), and the upper left block (B2) adjacent to the current block within the current picture may be used, as illustrated in FIG. 4.
  • a block located within a reference picture (which may or may not be the same as the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as a merge candidate.
  • a block co-located with the current block within the reference picture or blocks adjacent to the block at the co-located block may be additionally used as a merge candidate. If the number of merge candidates selected by the method described above is less than a preset number, a 0 vector is added to the merge candidates.
  • the inter prediction unit (124) uses these surrounding blocks to construct a merge list containing a predetermined number of merge candidates.
  • the merge candidate to be used as motion information of the current block is selected and merge index information for identifying the selected candidate is generated.
  • the generated merge index information is encoded by the entropy encoding unit (155) and transmitted to the video decoding device.
  • merge mode and merge skip mode are collectively referred to as merge/skip mode.
  • AMVP Advanced Motion Vector Prediction
  • the inter prediction unit (124) derives predicted motion vector candidates for the motion vector of the current block using neighboring blocks of the current block.
  • neighboring blocks used to derive predicted motion vector candidates all or some of the left block (A0), the lower left block (A1), the upper block (B0), the upper right block (B1), and the upper left block (B2) adjacent to the current block in the current picture as shown in FIG. 4 may be used.
  • a block located in a reference picture (which may or may not be the same as the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as the neighboring block used to derive predicted motion vector candidates.
  • a block co-located with the current block in the reference picture or blocks adjacent to the block in the co-located block may be used. If the number of motion vector candidates is less than a preset number by the method described above, a 0 vector is added to the motion vector candidates.
  • the inter prediction unit (124) derives predicted motion vector candidates using the motion vectors of these surrounding blocks, and determines a predicted motion vector for the motion vector of the current block using the predicted motion vector candidates. Then, the predicted motion vector is subtracted from the motion vector of the current block to produce a differential motion vector.
  • the predicted motion vector can be obtained by applying a predefined function (e.g., median, mean, etc.) to the predicted motion vector candidates.
  • a predefined function e.g., median, mean, etc.
  • the image decoding device also knows the predefined function.
  • the surrounding blocks used to derive the predicted motion vector candidates are blocks that have already been encoded and decoded
  • the image decoding device also already knows the motion vectors of the surrounding blocks. Therefore, the image encoding device does not need to encode information to identify the predicted motion vector candidates. Therefore, in this case, information about the differential motion vector and information about the reference picture used to predict the current block are encoded.
  • the predicted motion vector can be determined by selecting one of the predicted motion vector candidates.
  • information for identifying the selected predicted motion vector candidate is additionally encoded, along with information about the differential motion vector and the reference picture used to predict the current block.
  • the subtractor (130) subtracts the prediction block generated by the intra prediction unit (122) or inter prediction unit (124) from the current block to generate a residual block.
  • the transformation unit (140) transforms residual signals within a residual block having pixel values in a spatial domain into transform coefficients in a frequency domain.
  • the transformation unit (140) may transform the residual signals within the residual block using the entire size of the residual block as a transformation unit, or may divide the residual block into a plurality of sub-blocks and use the sub-blocks as transformation units to perform the transformation.
  • the residual signals may be transformed using only the transformation domain sub-block as a transformation unit by dividing the sub-blocks into two sub-blocks, that is, a transformation domain and a non-transform domain.
  • the transformation domain sub-block may be one of two rectangular blocks having a size ratio of 1:1 with respect to the horizontal axis (or vertical axis).
  • a flag (cu_sbt_flag) indicating that only a sub-block has been converted, directionality (vertical/horizontal) information (cu_sbt_horizontal_flag), and/or position information (cu_sbt_pos_flag) are encoded by the entropy encoding unit (155) and signaled to the image decoding device.
  • the size of the conversion area sub-block may have a size ratio of 1:3 with respect to the horizontal axis (or vertical axis), and in this case, a flag (cu_sbt_quad_flag) distinguishing the corresponding division is additionally encoded by the entropy encoding unit (155) and signaled to the image decoding device.
  • the transformation unit (140) can individually perform transformations on the residual block in the horizontal and vertical directions.
  • various types of transformation functions or transformation matrices can be used.
  • a pair of transformation functions for horizontal transformation and vertical transformation can be defined as a Multiple Transform Set (MTS).
  • MTS Multiple Transform Set
  • the transformation unit (140) can select one transformation function pair with the best transformation efficiency among the MTS and transform the residual block in the horizontal and vertical directions, respectively.
  • Information (mts_idx) on the transformation function pair selected among the MTS is encoded by the entropy encoding unit (155) and signaled to the image decoding device.
  • the quantization unit (145) quantizes the transform coefficients output from the transform unit (140) using quantization parameters and outputs the quantized transform coefficients to the entropy encoding unit (155).
  • the quantization unit (145) may directly quantize a related residual block without transformation for a certain block or frame.
  • the quantization unit (145) may also apply different quantization coefficients (scaling values) according to the positions of the transform coefficients within the transform block.
  • the quantization matrix applied to the quantized transform coefficients arranged in two dimensions may be encoded and signaled to an image decoding device.
  • the rearrangement unit (150) can perform rearrangement of coefficient values for quantized residual values.
  • the reordering unit (150) can change a two-dimensional coefficient array into a one-dimensional coefficient sequence by using coefficient scanning.
  • the reordering unit (150) can output a one-dimensional coefficient sequence by scanning from the DC coefficient to the coefficients of the high-frequency region by using a zig-zag scan or a diagonal scan.
  • a vertical scan that scans the two-dimensional coefficient array in the column direction or a horizontal scan that scans the two-dimensional block-shaped coefficients in the row direction may be used instead of the zig-zag scan. That is, depending on the size of the transformation unit and the intra prediction mode, the scanning method to be used may be determined among the zig-zag scan, the diagonal scan, the vertical scan, and the horizontal scan.
  • the entropy encoding unit (155) generates a bitstream by encoding a sequence of one-dimensional quantized transform coefficients output from the rearrangement unit (150) using various encoding methods such as CABAC (Context-based Adaptive Binary Arithmetic Code) and Exponential Golomb.
  • CABAC Context-based Adaptive Binary Arithmetic Code
  • Exponential Golomb Exponential Golomb
  • the entropy encoding unit (155) encodes information related to block division, such as CTU size, CU division flag, QT division flag, MTT division type, and MTT division direction, so that the image decoding device can divide the block in the same manner as the image encoding device.
  • the entropy encoding unit (155) encodes information about a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and encodes intra prediction information (i.e., information about an intra prediction mode) or inter prediction information (information about an encoding mode of motion information (merge mode or AMVP mode), a merge index in the case of a merge mode, and a reference picture index and a differential motion vector in the case of an AMVP mode) according to the prediction type.
  • the entropy encoding unit (155) encodes information related to quantization, that is, information about a quantization parameter and information about a quantization matrix.
  • the inverse quantization unit (160) inversely quantizes the quantized transform coefficients output from the quantization unit (145) to generate transform coefficients.
  • the inverse transform unit (165) transforms the transform coefficients output from the inverse quantization unit (160) from the frequency domain to the spatial domain to restore the residual block.
  • An adder (170) adds the restored residual block and the predicted block generated by the prediction unit (120) to restore the current block.
  • the pixels within the restored current block are used as reference pixels when intra-predicting the next block.
  • the loop filter unit (180) performs filtering on restored pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization.
  • the loop filter unit (180) may include all or part of a deblocking filter (182), a sample adaptive offset (SAO) filter (184), and an adaptive loop filter (ALF, 186) as an in-loop filter.
  • the deblocking filter (182) filters the boundaries between restored blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter (184) and the ALF (186) perform additional filtering on the deblocking-filtered image.
  • the SAO filter (184) and the ALF (186) are filters used to compensate for the differences between restored pixels and original pixels caused by lossy coding.
  • the SAO filter (184) improves not only subjective image quality but also encoding efficiency by applying an offset in units of CTUs.
  • the ALF (186) performs block-based filtering, and compensates for distortion by applying different filters by distinguishing the edges and degrees of variation of the corresponding block.
  • Information on filter coefficients to be used in the ALF can be encoded and signaled to an image decoding device.
  • the video encoding device can store the bitstream of encoded video data on a non-transitory storage medium or transmit it to the video decoding device using a communication network.
  • FIG. 5 is an exemplary block diagram of an image decoding device capable of implementing the techniques of the present disclosure.
  • the image decoding device and its subcomponents will be described with reference to FIG. 5.
  • the video decoding device may be configured to include an entropy decoding unit (510), a rearrangement unit (515), an inverse quantization unit (520), an inverse transformation unit (530), a prediction unit (540), an adder (550), a loop filter unit (560), and a memory (570).
  • an entropy decoding unit (510) a rearrangement unit (515), an inverse quantization unit (520), an inverse transformation unit (530), a prediction unit (540), an adder (550), a loop filter unit (560), and a memory (570).
  • each component of the video decoding device may be implemented in hardware, software, or a combination of hardware and software. Furthermore, the functions of each component may be implemented in software, with a microprocessor executing the software functions corresponding to each component.
  • the entropy decoding unit (510) decodes the bitstream generated by the image encoding device to extract information related to block division, thereby determining the current block to be decoded, and extracts prediction information, information on residual signals, etc. required to restore the current block.
  • the entropy decoding unit (510) extracts information about the CTU size from the Sequence Parameter Set (SPS) or the Picture Parameter Set (PPS), determines the size of the CTU, and divides the picture into CTUs of the determined size. Then, the CTU is determined as the top layer of the tree structure, i.e., the root node, and the CTU is divided using the tree structure by extracting division information about the CTU.
  • SPS Sequence Parameter Set
  • PPS Picture Parameter Set
  • the first flag (QT_split_flag) related to the splitting of QT is extracted, and each node is split into four nodes of the lower layer.
  • the second flag (mtt_split_flag) related to the splitting of MTT and the split direction (vertical / horizontal) and/or split type (binary / ternary) information are extracted, and the corresponding leaf nodes are split into the MTT structure. Accordingly, each node below the leaf nodes of QT are split recursively into the BT or TT structure.
  • the CU split flag (split_cu_flag) indicating whether the CU is split is first extracted, and if the block is split, the first flag (QT_split_flag) may be extracted.
  • each node may undergo zero or more repeated QT splits followed by zero or more repeated MTT splits.
  • a CTU may undergo an MTT split right away, or conversely, may undergo only multiple QT splits.
  • the first flag (QT_split_flag) related to the splitting of QT is extracted, and each node is split into four nodes of the lower layer. Furthermore, for nodes corresponding to leaf nodes of QT, a split flag (split_flag) indicating whether to further split into BTs and splitting direction information are extracted.
  • the entropy decoding unit (510) determines the current block to be decoded by using the division of the tree structure, it extracts information on the prediction type indicating whether the current block is intra-predicted or inter-predicted. If the prediction type information indicates intra-prediction, the entropy decoding unit (510) extracts syntax elements for intra-prediction information (intra-prediction mode) of the current block. If the prediction type information indicates inter-prediction, the entropy decoding unit (510) extracts syntax elements for inter-prediction information, i.e., information indicating a motion vector and a reference picture referenced by the motion vector.
  • the entropy decoding unit (510) extracts information about the quantized transform coefficients of the current block as information related to quantization and information about residual signals.
  • the rearrangement unit (515) can change the sequence of one-dimensional quantized transform coefficients entropy-decoded in the entropy decoding unit (510) back into a two-dimensional coefficient array (i.e., block) in the reverse order of the coefficient scanning performed by the image encoding device.
  • the inverse quantization unit (520) inversely quantizes the quantized transform coefficients and inversely quantizes the quantized transform coefficients using the quantization parameters.
  • the inverse quantization unit (520) may also apply different quantization coefficients (scaling values) to the quantized transform coefficients arranged in two dimensions.
  • the inverse quantization unit (520) may perform inverse quantization by applying a matrix of quantized coefficients (scaling values) from an image encoding device to a two-dimensional array of quantized transform coefficients.
  • the inverse transform unit (530) inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain to restore residual signals, thereby generating a residual block for the current block.
  • the inverse transform unit (530) when it inversely transforms only a portion of a transform block (sub-block), it extracts a flag (cu_sbt_flag) indicating that only a sub-block of the transform block has been transformed, directionality (vertical/horizontal) information (cu_sbt_horizontal_flag) of the sub-block, and/or position information (cu_sbt_pos_flag) of the sub-block, and inversely transforms the transform coefficients of the corresponding sub-block from the frequency domain to the spatial domain to restore residual signals, and fills “0” values with residual signals for areas that have not been inversely transformed, thereby generating a final residual block for the current block.
  • a flag cu_sbt_flag
  • the inverse transform unit (530) determines a transform function or a transform matrix to be applied in the horizontal and vertical directions using MTS information (mts_idx) signaled from the image encoding device, and performs inverse transform on the transform coefficients within the transform block in the horizontal and vertical directions using the determined transform function.
  • the prediction unit (540) may include an intra prediction unit (542) and an inter prediction unit (544).
  • the intra prediction unit (542) is activated when the prediction type of the current block is intra prediction
  • the inter prediction unit (544) is activated when the prediction type of the current block is inter prediction.
  • the intra prediction unit (542) determines the intra prediction mode of the current block among a plurality of intra prediction modes from the syntax elements for the intra prediction mode extracted from the entropy decoding unit (510), and predicts the current block using reference pixels around the current block according to the intra prediction mode.
  • the inter prediction unit (544) uses the syntax elements for the inter prediction mode extracted from the entropy decoding unit (510) to determine the motion vector of the current block and the reference picture referenced by the motion vector, and predicts the current block using the motion vector and the reference picture.
  • An adder (550) adds the residual block output from the inverse transform unit (530) and the predicted block output from the inter prediction unit (544) or the intra prediction unit (542) to restore the current block.
  • the pixels within the restored current block are used as reference pixels when intra-predicting a block to be decoded later.
  • the loop filter unit (560) may include a deblocking filter (562), an SAO filter (564), and an ALF (566) as in-loop filters.
  • the deblocking filter (562) deblocks the boundaries between restored blocks to remove blocking artifacts caused by block-by-block decoding.
  • the SAO filter (564) and the ALF (566) perform additional filtering on restored blocks after deblocking filtering to compensate for differences between restored pixels and original pixels caused by lossy coding.
  • the filter coefficients of the ALF are determined using information about filter coefficients decoded from the non-stream.
  • the restored blocks filtered through the deblocking filter (562), SAO filter (564), and ALF (566) are stored in the memory (570).
  • the restored picture is used as a reference picture for inter-predicting blocks within a picture to be encoded later.
  • the video processing device refers to at least one of the video encoding device or the video decoding device.
  • the present disclosure relates to a matrix-based intra prediction (MIP) mode.
  • MIP mode is a mode that derives prediction samples of a current block by multiplying reference pixels in a neighboring reference template of the current block by a weight matrix.
  • the process for deriving a prediction sample of the current block in MIP mode can be expressed as in mathematical expression 1.
  • Equation 1 P(x, y) represents a prediction sample of the current block, x and y represent the positions of the prediction samples within the current block, r(k) represents the kth reference pixel of the current block, and F(x, y, k) represents the matrix weights corresponding to the prediction sample (x, y). k represents the index of the reference pixel within the reference template of the current block.
  • the value of the prediction sample of the current block is determined by the multiplication between the weight matrix of the current block and the reference pixel.
  • the size of the prediction block of the current block is the same as the size of the current block.
  • MIP mode can be enabled or disabled based on the size of the current block.
  • MIP mode can be enabled for blocks whose width and height are each less than or equal to a predefined value.
  • the predefined value can be 32.
  • MIP mode can be used for block sizes where both width and height are at most 32.
  • the predefined value can be other values besides 32.
  • MIP mode may not be enabled for blocks of certain sizes. For example, MIP mode may not be enabled for blocks whose width x height are 4x32, 32x4, 8x32, or 32x8.
  • the intra prediction mode of the current block is replaced with the MIP mode.
  • the existing intra prediction mode or the derived intra prediction mode of the current block can be replaced with the MIP mode.
  • Some directional intra prediction modes can be replaced with the MIP mode.
  • FIG. 6 is a flowchart of a matrix-based intra prediction method according to one embodiment of the present disclosure.
  • step S610 the image processing device determines a reference template of the current block.
  • a reference template refers to a set of pixels encoded or decoded before the current block.
  • a reference template may contain pixels that are not adjacent to the current block.
  • a reference template may contain reference blocks that are not adjacent to the current block.
  • a reference template can be pre-defined between a video encoding device and a video decoding device.
  • the reference template may be determined based on either the intra prediction mode of the current block or signaling information.
  • the signaling information may include information about the shape, position, size, etc. of the reference template.
  • the signaling information may include information for indicating a reference template including pixels adjacent to the current block, a reference template including non-adjacent pixels, or a reference template indicated using motion information of a neighboring block.
  • the size of the reference template may be predefined. Alternatively, the size of the reference template may be determined based on at least one of the size of the current block or the size of the weight matrix. The size of the reference template may further be determined based on the intra prediction mode.
  • At least one of the pixels in the reference template may be a pixel generated from another pixel using at least one of padding or interpolation.
  • the image processing device can adjust the reference template by performing a weighted sum of pixels within the reference template in units of a predetermined shape.
  • Information about whether to perform padding, interpolation, adjustment, etc. on the reference template may be agreed upon or signaled between the video encoding device and the video decoding device.
  • step S620 the image processing device determines a weight matrix for matrix-based intra prediction of the current block. Furthermore, the image processing device may determine an offset for matrix-based intra prediction.
  • the weight matrix may be derived based on at least one of the size of the current block or the intra prediction mode.
  • the weight matrix of the current block may be selected from predefined weight matrices based on at least one of the size of the current block or the intra prediction mode.
  • each element of the weight matrix of the current block may be derived based on at least one of the size of the current block or the intra prediction mode.
  • the weight matrix may be determined based on signaling information between the image encoding device and the image decoding device.
  • Information for indicating the weight matrix of the current block may be signaled from predefined weight matrices.
  • the offset may be a value selected from predefined values based on signaling information between the video encoding device and the video decoding device. Alternatively, the offset may be derived based on information of the current block or neighboring blocks.
  • a prediction block of a current block is generated through reduction, matrix multiplication, and upsampling of a reference template.
  • a predicted block of the current block is generated.
  • a predicted block of the current block can be derived by interpolating elements of the boundary vector.
  • the generation of a prediction block of the current block based on the reduction and upsampling of the reference template can be performed based on at least one of the size or the intra prediction mode of the current block being a predefined value. In other words, when at least one of the size or the intra prediction mode of the current block falls within a predetermined range, the prediction block of the current block can be generated from the reduction, matrix multiplication, and upsampling of the reference template.
  • whether to perform generation of a prediction block of the current block based on reduction and upsampling of the reference template can be determined based on signaling information.
  • the image processing device can improve coding efficiency and prediction accuracy by using various reference templates for MIP prediction.
  • FIGS. 7A, 7B, and 7C are diagrams illustrating reference templates adjacent to a current block according to one embodiment of the present disclosure.
  • the reference template may be any one of an L-shaped reference template, a left reference template or an upper reference template.
  • reference templates of various shapes may be used.
  • Fig. 7a an L-shaped reference template is illustrated.
  • An L-shaped reference template includes at least one reference line adjacent to the current block. Specifically, the L-shaped reference template includes at least one left reference line, at least one top reference line, and at least one top-left reference pixel.
  • the L-shaped reference template may include the left and top surrounding pixels of the current block.
  • the L-shaped reference template may include the bottom-left surrounding pixels, the left surrounding pixels, the top-left surrounding pixels, the top-right surrounding pixels, and the top-right surrounding pixels of the current block.
  • the size or area of an L-shaped reference template can be expressed as (C W ⁇ W ⁇ L1)+(C H ⁇ H ⁇ L2)+(L1 ⁇ L2).
  • W is the width of the current block
  • H is the height of the current block
  • C W and C H are weights for the height of the width of the current block, respectively.
  • L1 is the number of upper reference lines
  • L2 is the number of left reference lines.
  • C W , C H , L1 , and L2 are positive integers.
  • the width and height of the reference template may have values of 2W and 2H, respectively.
  • L3 when the current block size is less than or equal to 16x16, L3 can be 2.
  • C W , C H , L1, L2, L3 and L4 may be determined based on at least one of the size of the current block or the intra prediction mode.
  • C W and C H may be 2, and L1, L2, L3, and L4 may be 2.
  • k is 0 or a positive integer.
  • C W and C H may be 2, and L1, L2, L3, and L4 may be 1, where k is 0 or a positive integer.
  • C W and C H can be determined based on the intra prediction mode. For example, for intra prediction modes 18 to 50, C W and C H can be set to 1. For the remaining intra prediction modes, C W and C H can be set to 2.
  • the reference template adjacent to the current block can be determined either implicitly or explicitly.
  • a reference template can be determined based on an intra prediction mode that is replaced by a MIP mode.
  • Various reference templates can be predefined or mapped to intra prediction modes. If an intra prediction mode is a predefined value or falls within a predefined range, a specific reference template can be used for MIP prediction.
  • the relationship between a reference template and an intra prediction mode can be agreed upon between a video encoding device and a video decoding device.
  • the upper reference template can be used for MIP prediction.
  • the left reference template can be used for MIP prediction.
  • the L-shaped reference template can be used for MIP prediction.
  • the entire upper reference template and the upper part of the left reference template can be used.
  • the reference template may be determined based on information other than the intra prediction mode.
  • the reference template can be determined based on signaling information between the video encoding device and the video decoding device.
  • the signaling information may include an index or flag for identifying the reference template of the current block from among predefined reference templates.
  • the reference template of the current block may be selected from among the predefined reference templates based on the signaling information.
  • FIG. 8 is a drawing for explaining a reference template that is not adjacent to a current block according to one embodiment of the present disclosure.
  • Non-adjacent surrounding blocks of the current block can be specified between the video encoding device and the video decoding device.
  • Figure 8 illustrates examples of non-adjacent neighboring blocks of the current block. At least one of blocks 14 to 31 may be used as a reference template for MIP prediction of the current block.
  • the number of each pixel represents the non-adjacent neighboring block containing the corresponding pixel.
  • the non-adjacent neighboring block containing pixel 14 can be referred to as block 14.
  • the pixels contained in block 14 are referred to as reference pixels of the current block.
  • peripheral blocks may be utilized.
  • Various peripheral blocks may be utilized as reference templates depending on their location, size, number, or shape.
  • Non-adjacent neighboring blocks for MIP prediction of the current block can be predefined or derived.
  • the location, size, number, or shape of non-adjacent surrounding blocks can be specified in advance.
  • the location, size, number, shape, etc. of non-adjacent neighboring blocks can be derived based on the size or prediction mode of the current block, etc.
  • the image decoding device can select non-adjacent neighboring blocks for MIP prediction from predefined non-adjacent neighboring blocks based on the size or prediction mode of the current block, etc.
  • the location, size, number, or shape of non-adjacent peripheral blocks can be derived based on signaling information.
  • the signaling information may include a flag or index for specifying non-adjacent peripheral blocks.
  • FIG. 9 is a drawing for explaining a reference template indicated by movement information of a surrounding block according to one embodiment of the present disclosure.
  • the neighboring block adjacent to the left of the current block is a predicted block using a reconstructed block indicated by the motion information of the neighboring block within the current picture.
  • a reconstructed block can be determined using template matching when predicting surrounding blocks.
  • template matching means finding a template in a search area that minimizes the difference from the template of a target block.
  • the difference between the template of the target block and the template of any block in the search area is defined as a cost function.
  • the template that minimizes the cost is searched for, and the block of the searched template is used as a prediction block of the target block.
  • a sum of absolute differences SAD
  • SSATD sum of absolute transformed differences
  • MR-SAD mean-removed sum of absolute differences
  • MSE mean squared error
  • SSE sum of squared errors
  • the difference between the template of the surrounding block and the template of the reconstructed block is the smallest, and the predicted block of the surrounding block may be the same as the reconstructed block.
  • the reconstructed block may be located at a distance equal to the motion information from the surrounding block and may have the same size as the surrounding block.
  • Motion information of surrounding blocks can indicate the relative positional relationship between the surrounding blocks of the current block and the reconstructed block.
  • the motion information of surrounding blocks can be referred to as a block vector.
  • pixels at a location indicated by the motion information of the surrounding block or surrounding pixels at the indicated location can be used as a reference template of the current block.
  • a reconstructed block indicated by motion information of a surrounding block based on a surrounding block within the current picture can be used.
  • a template of a reconstructed block indicated by motion information of a surrounding block based on a surrounding block within the current picture can be used.
  • a block indicated by motion information of a neighboring block relative to the current block within the current picture may be used as a reference template for the current block.
  • the size and direction of the motion information of the neighboring block are maintained, and the block indicated by the motion information of the neighboring block may be the right block of the reconstructed block.
  • a template of a block indicated by motion information of a surrounding block based on the current block may be used as a reference template of the current block in the current picture.
  • the neighboring blocks of the current block can be predicted using blocks indicated by motion information of the neighboring blocks among reconstructed blocks in a reference picture different from the current picture.
  • Motion information of a neighboring block can indicate the positional relationship between the corresponding neighboring block in a reference picture and the reconstructed block in the reference picture. Motion information of a neighboring block can also indicate the relative positional relationship between the neighboring block in the current picture and the reconstructed block in the reference picture. Motion information of a neighboring block can be referred to as a motion vector.
  • the corresponding block of a neighboring block refers to a block within a reference picture that has the same relative position as the neighboring block within the current picture. In other words, the positions of the neighboring blocks within the current picture and the corresponding blocks within the reference picture are identical. Furthermore, the corresponding block of the current block refers to a block within the reference picture that has the same relative position as the current block within the current picture.
  • a block indicated by motion information of a neighboring block based on a corresponding block of a neighboring block within a reference picture may be used as a reference template for the current block.
  • the indicated block is a block located at a distance equal to the motion information from the corresponding block of the neighboring block.
  • a template of a block indicated by motion information of a surrounding block based on a corresponding block of a surrounding block in a reference picture may be used.
  • a block indicated by motion information of a neighboring block relative to the corresponding block of the current block within the reference picture may be used as a reference template for the current block.
  • the magnitude and direction of the motion information of the neighboring block are maintained.
  • the block indicated by the motion information of the neighboring block may be the block to the right of the corresponding block of the reconstructed block.
  • a template of a block indicated by motion information of a surrounding block based on a corresponding block of the current block in a reference picture may be used.
  • At least one pixel within the reference template can be generated from another pixel using at least one of padding or interpolation.
  • pixels for the reference template may be generated or replaced. For example, if the height of the reference template is smaller than the width of the weight matrix, the reference template may be expanded.
  • padding interpolation, vertical interpolation, horizontal interpolation, or both vertical and horizontal interpolation can be used.
  • a reference template can be expanded by padding some pixels within the reference template.
  • the reference template can be padded using a predefined value or a value based on bit depth.
  • a reference template can be extended by interpolating one or more pixels within the reference template.
  • a reference template can be extended by interpolating surrounding pixels within the reference template.
  • a reference template can be extended by performing interpolation using pixels within the reference template and surrounding pixels of the reference template.
  • unavailable pixels within the reference template can be replaced by pixels generated by interpolating surrounding pixels.
  • a reference template of a current block can be adjusted by performing a weighted sum of pixels within a reference template in units of a predetermined shape.
  • the adjusted reference template is used for MIP prediction of the current block.
  • the adjustment of the reference template can be expressed as in mathematical expression 3.
  • ref adj is an adjusted reference template
  • w is a weight
  • ref is a weighted unit within the reference template.
  • the shape of ref n can be a line or a block.
  • the sum of the weights is 1.
  • the given unit may be a line unit.
  • the reference template of the current block is an upper reference template including multiple upper reference lines
  • the multiple upper reference lines within the reference template may be weighted vertically.
  • the number of lines in the weighted reference lines is smaller than the number of lines in the multiple upper reference lines.
  • the given unit may be an L-shaped unit.
  • the L-shaped reference lines within the reference template may be weighted in L-shaped units.
  • the upper reference lines and the left reference lines may be weighted, and the upper left pixels of the current block may be weighted.
  • ref 0 may be an L-shaped reference line adjacent to the current block
  • ref n may be an L-shaped reference line farthest from the current block.
  • the given unit may be a block unit.
  • the non-adjacent neighboring blocks may be weighted.
  • the number of weighted non-adjacent neighboring blocks is smaller than the number of non-weighted neighboring blocks.
  • the position, order, size, or direction of certain units for adjusting the reference template may be changed.
  • the upper reference lines may be weighted horizontally.
  • a reference template may be adjusted for a portion of the reference template.
  • the adjusted reference template may be a weighted sum of a portion of lines or blocks within the original reference template.
  • Information for adjusting a reference template may be agreed upon or signaled between a video encoding device and a video decoding device.
  • Information for adjusting a reference template may include whether to adjust the reference template, a unit for weighted summation, the location, size, number, or weighted sum direction of reference lines or reference blocks within the reference template.
  • FIG. 10 is a flowchart of an image encoding method according to one embodiment of the present disclosure.
  • step S1010 of FIG. 10 the image encoding device determines an intra prediction mode of the current block.
  • MIP mode can be determined to be the optimal intra prediction mode.
  • step S1020 the image encoding device performs intra prediction for the current block based on the intra prediction mode.
  • the video encoding device When the intra prediction mode is MIP mode, the video encoding device performs MIP prediction for the current block. MIP prediction can be performed using the methods described in FIGS. 6 to 9.
  • step S1030 the image encoding device encodes information about an intra prediction mode.
  • Information about the intra prediction mode may include information about the use of MIP, information about the reference template, matrix, or offset used for MIP prediction, etc.
  • MIP_constraint_flag MIP constraint flag
  • MIP_constraint_flag MIP constraint flag
  • MIP_enabled_flag MIP enable flag
  • MIP_disabled_flag MIP disable flag
  • Setting the MIP constraint flag to 0 indicates that there are no constraints on MIP prediction.
  • the MIP enable flag or MIP disable flag may be set to 0 or 1. On the other hand, if the IP constraint flag is set to 1, the MIP enable flag is set to 0 and the MIP disable flag is set to 1.
  • information about the use of MIP can be signaled at a higher level, such as in a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), a picture header (PH), or a slice header (SH).
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture parameter set
  • PH picture header
  • SH slice header
  • information about the use of MIPs can be signaled at lower levels, such as coding tree units (CTUs), coding units (CUs), prediction units (PUs), or transform units (TUs).
  • CTUs coding tree units
  • CUs coding units
  • PUs prediction units
  • TUs transform units
  • information regarding the use of MIP may be signaled not by an explicit flag, but may be signaled dependently based on flags of other prediction modes or the size of the current block, etc.
  • the video decoding device may determine the MIP mode based on flags of other prediction modes or the size of the current block, etc.
  • step S1110 of FIG. 11 the image decoding device decodes information about the intra prediction mode of the current block.
  • Information about the intra prediction mode may include information about the use of MIP, information about the reference template, matrix, or offset used for MIP prediction, etc.
  • the video decoding device determines the intra prediction mode of the current block based on information about the intra prediction mode.
  • the intra prediction mode may be a MIP mode.
  • step S1130 the image decoding device performs MIP prediction for the current block.
  • MIP prediction can be performed using the methods described in FIGS. 6 to 9.
  • Non-transitory storage media include, for example, all types of storage devices that store data in a form readable by a computer system.
  • non-transitory storage media include storage media such as erasable programmable read-only memory (EPROM), flash drives, optical drives, magnetic hard drives, and solid-state drives (SSDs).
  • EPROM erasable programmable read-only memory
  • SSDs solid-state drives

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Disclosed are a method and an apparatus for matrix-based intra prediction on the basis of various reference pixels. According to the disclosed method, coding efficiency and prediction accuracy can be improved by using various reference pixels for MIP prediction.

Description

다양한 참조화소에 기반한 행렬기반 인트라 예측 방법 및 장치Matrix-based intra prediction method and device based on various reference pixels

본 개시는 영상 부/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체에 관한 것으로, 더 구체적으로는 다양한 참조화소에 기반한 행렬기반 인트라 예측 방법 및 장치에 대한 것이다.The present disclosure relates to a video encoding/decoding method, device, and recording medium for storing a bitstream, and more specifically, to a matrix-based intra prediction method and device based on various reference pixels.

이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다. The content described below merely provides background information related to the present embodiment and does not constitute prior art.

비디오 데이터는 음성 데이터나 정지 영상 데이터 등에 비하여 많은 데이터양을 가지기 때문에, 압축을 위한 처리 없이 그 자체를 저장하거나 전송하기 위해서는 메모리를 포함하여 많은 하드웨어 자원을 필요로 한다. Since video data has a large amount of data compared to voice data or still image data, it requires a lot of hardware resources, including memory, to store or transmit it without processing for compression.

따라서, 통상적으로 비디오 데이터를 저장하거나 전송할 때 부호화기는 비디오 데이터를 압축하여 저장하거나 전송하며, 복호화기는 압축된 비디오 데이터를 수신하여 압축을 해제하고 재생한다. 이러한 비디오 압축 기술로는 H.264/AVC, HEVC(High Efficiency Video Coding) 등을 비롯하여, HEVC에 비해 약 30% 이상의 부호화 효율을 향상시킨 VVC(Versatile Video Coding)가 존재한다. Therefore, when storing or transmitting video data, the encoder compresses the video data and stores or transmits it, and the decoder receives the compressed video data, decompresses it, and plays it back. These video compression technologies include H.264/AVC, HEVC (High Efficiency Video Coding), and VVC (Versatile Video Coding), which improves encoding efficiency by about 30% compared to HEVC.

그러나, 영상의 크기 및 해상도, 프레임율이 점차 증가하고 있고, 이에 따라 부호화해야 하는 데이터양도 증가하고 있으므로 기존의 압축 기술보다 더 부호화 효율이 좋고 화질 개선 효과도 높은 새로운 압축 기술이 요구된다. However, as the size, resolution, and frame rate of images are gradually increasing, and the amount of data that needs to be encoded is also increasing, a new compression technology that has better encoding efficiency and better image quality improvement than existing compression technologies is required.

특히, 최근 HD(High Definition) 영상 및 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 전송되는 정보량 또는 비트량이 증가하게 된다. 전송되는 정보량 또는 비트량의 증가는 전송 비용과 저장 비용의 증가를 초래한다. 또한, 최근 VR(Virtual Reality), AR(Artificial Reality) 컨텐츠나 홀로그램 등의 실감 미디어(Immersive Media)에 대한 관심 및 수요가 증가하고 있으며, 게임 영상과 같이 현실 영상과 다른 영상 특성을 갖는 비디오/영상에 대한 방송이 증가하고 있다. 이에 따라, 전술한 바와 같은 다양한 특성을 갖는 고해상도, 고품질 영상의 정보를 효과적으로 압축하여 전송하거나 저장하고, 재생하기 위한 고효율의 영상 압축 기술이 요구된다.In particular, the demand for high-resolution, high-quality images, such as HD (High Definition) images and UHD (Ultra High Definition) images, has been increasing in various fields. As image data becomes higher in resolution and quality, the amount of information or bits transmitted increases relatively compared to existing image data. This increase in the amount of information or bits transmitted leads to an increase in transmission and storage costs. In addition, interest in and demand for immersive media, such as VR (Virtual Reality), AR (Artificial Reality) content, and holograms, has been increasing recently, and the broadcasting of videos/images with different image characteristics from real images, such as game images, is increasing. Accordingly, a highly efficient image compression technology is required to effectively compress, transmit, store, and play information of high-resolution, high-quality images with various characteristics as described above.

본 개시는 영상을 효율적으로 부호화 또는 복호화하고 복원영상의 객관적 및 주관적 화질을 개선하기 위한 영상 부호화 또는 복호화를 위한 방법, 장치 및 상기 영상 부호화 방법/장치에 의해 생성된 비트스트림을 저장하는 기록 매체를 제공한다.The present disclosure provides a method and device for image encoding or decoding for efficiently encoding or decoding an image and improving objective and subjective image quality of a restored image, and a recording medium for storing a bitstream generated by the image encoding method/device.

본 개시의 일 측면은 복호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬 및 오프셋을 결정하는 단계; 및 상기 현재블록의 참조 템플릿, 상기 가중치 행렬 및 상기 오프셋에 기초하여 상기 현재블록의 예측블록을 생성하는 단계를 포함하는 영상 복호화 방법을 제시한다.One aspect of the present disclosure provides an image decoding method, comprising: determining a reference template including decoded pixels; determining a weight matrix and an offset for matrix-based intra prediction of a current block; and generating a prediction block of the current block based on the reference template of the current block, the weight matrix, and the offset.

본 개시의 일 측면은 부호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬 및 오프셋을 결정하는 단계; 및 상기 현재블록의 참조 템플릿, 상기 가중치 행렬 및 상기 오프셋에 기초하여 상기 현재블록의 예측블록을 생성하는 단계를 포함하는 영상 부호화 방법을 제시한다.One aspect of the present disclosure provides an image encoding method, comprising: determining a reference template including encoded pixels; determining a weight matrix and an offset for matrix-based intra prediction of a current block; and generating a prediction block of the current block based on the reference template of the current block, the weight matrix, and the offset.

본 개시의 일 측면은 영상 부호화 장치에 의해 생성된 비트스트림이 저장된 비일시적 컴퓨터 판독가능한 기록매체를 제시한다. 상기 비트스트림은 영상 부호화 방법에 의해 생성된다. 상기 영상 부호화 방법은 부호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬 및 오프셋을 결정하는 단계; 및 상기 현재블록의 참조 템플릿, 상기 가중치 행렬 및 상기 오프셋에 기초하여 상기 현재블록의 예측블록을 생성하는 단계를 포함한다.One aspect of the present disclosure provides a non-transitory computer-readable recording medium storing a bitstream generated by an image encoding device. The bitstream is generated by an image encoding method. The image encoding method includes the steps of: determining a reference template including encoded pixels; determining a weight matrix and an offset for matrix-based intra prediction of a current block; and generating a prediction block of the current block based on the reference template of the current block, the weight matrix, and the offset.

본 개시의 일 측면은 적어도 하나의 프로세서에 의해 수행되는, 영상에 대한 비트스트림을 생성하는 단계; 및 상기 비트스트림을 포함하는 데이터를 전송하는 단계를 포함하는 방법을 제시한다. 상기 비트스트림을 생성하는 단계는, 부호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬 및 오프셋을 결정하는 단계; 및 상기 현재블록의 참조 템플릿, 상기 가중치 행렬 및 상기 오프셋에 기초하여 상기 현재블록의 예측블록을 생성하는 단계를 포함한다.One aspect of the present disclosure provides a method comprising: generating a bitstream for an image, the method comprising: performing at least one processor; and transmitting data including the bitstream. The step of generating the bitstream comprises: determining a reference template including encoded pixels; determining a weight matrix and an offset for matrix-based intra prediction of a current block; and generating a prediction block of the current block based on the reference template of the current block, the weight matrix, and the offset.

본 개시에 따르면, 영상 부호화/복호화 장치는 MIP 예측에 이용되는 참조화소들을 다양화함으로써, 영상을 효율적으로 부호화/복호화하고 복원영상의 객관적/주관적 화질을 개선할 수 있다.According to the present disclosure, an image encoding/decoding device can efficiently encode/decode an image and improve the objective/subjective image quality of a restored image by diversifying reference pixels used for MIP prediction.

도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. FIG. 1 is an exemplary block diagram of an image encoding device capable of implementing the techniques of the present disclosure.

도 2는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.Figure 2 is a drawing for explaining a method of dividing a block using the QTBTTT (QuadTree plus BinaryTree TernaryTree) structure.

도 3a 및 도 3b는 광각 인트라 예측모드들을 포함한 복수의 인트라 예측모드들을 나타낸 도면이다.FIGS. 3A and 3B are diagrams illustrating multiple intra prediction modes, including wide-angle intra prediction modes.

도 4는 현재블록의 주변블록에 대한 예시도이다.Figure 4 is an example diagram of the surrounding blocks of the current block.

도 5는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다.FIG. 5 is an exemplary block diagram of an image decoding device capable of implementing the techniques of the present disclosure.

도 6은 본 개시의 일 실시예에 따른 행렬기반 인트라 예측 방법의 순서도이다.FIG. 6 is a flowchart of a matrix-based intra prediction method according to one embodiment of the present disclosure.

도 7a, 도 7b 및 도 7c는 본 개시의 일 실시예에 따른 현재블록에 인접한 참조 템플릿을 설명하기 위한 도면이다.FIGS. 7A, 7B, and 7C are diagrams illustrating reference templates adjacent to a current block according to one embodiment of the present disclosure.

도 8은 본 개시의 일 실시예에 따른 현재블록에 비인접한 참조 템플릿을 설명하기 위한 도면이다.FIG. 8 is a drawing for explaining a reference template that is not adjacent to a current block according to one embodiment of the present disclosure.

도 9는 본 개시의 일 실시예에 따른 주변블록의 움직임 정보에 의해 지시되는 참조 템플릿을 설명하기 위한 도면이다.FIG. 9 is a drawing for explaining a reference template indicated by movement information of a surrounding block according to one embodiment of the present disclosure.

도 10은 본 개시의 일 실시예에 따른 영상 부호화 방법의 순서도이다.FIG. 10 is a flowchart of an image encoding method according to one embodiment of the present disclosure.

도 11은 본 개시의 일 실시예에 따른 영상 복호화 방법의 순서도이다.FIG. 11 is a flowchart of an image decoding method according to one embodiment of the present disclosure.

이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면 상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 실시예들의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present disclosure will be described in detail with reference to exemplary drawings. When designating components in each drawing, it should be noted that, where possible, identical components are given the same reference numerals, even if they appear in different drawings. Furthermore, in describing the present embodiments, detailed descriptions of related known structures or functions will be omitted if they are deemed to obscure the gist of the present embodiments.

도 1은 본 개시의 기술들을 구현할 수 있는 영상 부호화 장치에 대한 예시적인 블록도이다. 이하에서는 도 1의 도시를 참조하여 영상 부호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.FIG. 1 is an exemplary block diagram of an image encoding device capable of implementing the techniques of the present disclosure. Hereinafter, the image encoding device and its subcomponents will be described with reference to the illustration in FIG. 1.

영상 부호화 장치는 픽처 분할부(110), 예측부(120), 감산기(130), 변환부(140), 양자화부(145), 재정렬부(150), 엔트로피 부호화부(155), 역양자화부(160), 역변환부(165), 가산기(170), 루프 필터부(180) 및 메모리(190)를 포함하여 구성될 수 있다.The video encoding device may be configured to include a picture segmentation unit (110), a prediction unit (120), a subtractor (130), a transformation unit (140), a quantization unit (145), a reordering unit (150), an entropy encoding unit (155), an inverse quantization unit (160), an inverse transformation unit (165), an adder (170), a loop filter unit (180), and a memory (190).

영상 부호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Each component of the video encoding device may be implemented in hardware, software, or a combination of hardware and software. Furthermore, the functions of each component may be implemented in software, with a microprocessor executing the software functions corresponding to each component.

하나의 영상(비디오)은 복수의 픽처들을 포함하는 하나 이상의 시퀀스로 구성된다. 각 픽처들은 복수의 영역으로 분할되고 각 영역마다 부호화가 수행된다. 예를 들어, 하나의 픽처는 하나 이상의 타일(Tile) 및/또는 슬라이스(Slice)로 분할된다. 여기서, 하나 이상의 타일을 타일 그룹(Tile Group)으로 정의할 수 있다. 각 타일 또는 슬라이스는 하나 이상의 CTU(Coding Tree Unit)로 분할된다. 그리고 각 CTU는 트리 구조에 의해 하나 이상의 CU(Coding Unit)들로 분할된다. 각 CU에 적용되는 정보들은 CU의 신택스로서 부호화되고, 하나의 CTU에 포함된 CU들에 공통적으로 적용되는 정보는 CTU의 신택스로서 부호화된다. 또한, 하나의 슬라이스 내의 모든 블록들에 공통적으로 적용되는 정보는 슬라이스 헤더의 신택스로서 부호화되며, 하나 이상의 픽처들을 구성하는 모든 블록들에 적용되는 정보는 픽처 파라미터 셋(PPS, Picture Parameter Set) 혹은 픽처 헤더에 부호화된다. 나아가, 복수의 픽처가 공통으로 참조하는 정보들은 시퀀스 파라미터 셋(SPS, Sequence Parameter Set)에 부호화된다. 그리고, 하나 이상의 SPS가 공통으로 참조하는 정보들은 비디오 파라미터 셋(VPS, Video Parameter Set)에 부호화된다. 또한, 하나의 타일 또는 타일 그룹에 공통으로 적용되는 정보는 타일 또는 타일 그룹 헤더의 신택스로서 부호화될 수도 있다. SPS, PPS, 슬라이스 헤더, 타일 또는 타일 그룹 헤더에 포함되는 신택스들은 상위수준(high level) 신택스로 칭할 수 있다. A single image (video) is composed of one or more sequences containing multiple pictures. Each picture is divided into multiple regions, and encoding is performed for each region. For example, a single picture is divided into one or more tiles and/or slices. Here, one or more tiles can be defined as a tile group. Each tile or slice is divided into one or more Coding Tree Units (CTUs). Each CTU is then divided into one or more Coding Units (CUs) by a tree structure. Information applied to each CU is encoded as the syntax of the CU, and information commonly applied to CUs included in a CTU is encoded as the syntax of the CTU. In addition, information commonly applied to all blocks within a single slice is encoded as the syntax of the slice header, and information applied to all blocks constituting one or more pictures is encoded in the Picture Parameter Set (PPS) or the picture header. Furthermore, information commonly referenced by multiple pictures is encoded in a Sequence Parameter Set (SPS). And, information commonly referenced by one or more SPS is encoded in a Video Parameter Set (VPS). In addition, information commonly applied to one tile or tile group may be encoded as syntax of a tile or tile group header. Syntaxes included in an SPS, PPS, slice header, tile or tile group header may be referred to as high level syntax.

픽처 분할부(110)는 CTU의 크기를 결정한다. CTU의 크기에 대한 정보(CTU size)는 SPS 또는 PPS의 신택스로서 부호화되어 영상 복호화 장치로 전달된다. The picture segmentation unit (110) determines the size of the CTU. Information about the size of the CTU (CTU size) is encoded as the syntax of SPS or PPS and transmitted to the image decoding device.

픽처 분할부(110)는 영상을 구성하는 각 픽처(picture)를 미리 결정된 크기를 가지는 복수의 CTU들로 분할한 이후에, 트리 구조(tree structure)를 이용하여 CTU를 반복적으로(recursively) 분할한다. 트리 구조에서의 리프 노드(leaf node)가 부호화의 기본 단위인 CU가 된다. The picture segmentation unit (110) divides each picture constituting an image into a plurality of CTUs having a predetermined size, and then recursively divides the CTUs using a tree structure. A leaf node in the tree structure becomes a CU, which is a basic unit of encoding.

트리 구조로는 상위 노드(혹은 부모 노드)가 동일한 크기의 네 개의 하위 노드(혹은 자식 노드)로 분할되는 쿼드트리(QuadTree, QT), 또는 상위 노드가 두 개의 하위 노드로 분할되는 바이너리트리(BinaryTree, BT), 또는 상위 노드가 1:2:1 비율로 세 개의 하위 노드로 분할되는 터너리트리(TernaryTree, TT), 또는 이러한 QT 구조, BT 구조 및 TT 구조 중 둘 이상을 혼용한 구조일 수 있다. 예컨대, QTBT(QuadTree plus BinaryTree) 구조가 사용될 수 있고, 또는 QTBTTT(QuadTree plus BinaryTree TernaryTree) 구조가 사용될 수 있다. 여기서, BTTT를 합쳐서 MTT(Multiple-Type Tree)라 지칭될 수 있다. The tree structure may be a QuadTree (QT) in which an upper node (or parent node) is divided into four lower nodes (or child nodes) of the same size, a BinaryTree (BT) in which an upper node is divided into two lower nodes, or a TernaryTree (TT) in which an upper node is divided into three lower nodes in a 1:2:1 ratio, or a structure that mixes two or more of the QT structures, BT structures, and TT structures. For example, a QTBT (QuadTree plus BinaryTree) structure may be used, or a QTBTTT (QuadTree plus BinaryTree TernaryTree) structure may be used. Here, BTTT may be combined and referred to as a MTT (Multiple-Type Tree).

도 2는 QTBTTT 구조를 이용하여 블록을 분할하는 방법을 설명하기 위한 도면이다.Figure 2 is a drawing for explaining a method of dividing a block using the QTBTTT structure.

도 2에 도시된 바와 같이, CTU는 먼저 QT 구조로 분할될 수 있다. 쿼드트리 분할은 분할 블록(splitting block)의 크기가 QT에서 허용되는 리프 노드의 최소 블록 크기(MinQTSize)에 도달할 때까지 반복될 수 있다. QT 구조의 각 노드가 하위 레이어의 4 개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. QT의 리프 노드가 BT에서 허용되는 루트 노드의 최대 블록 크기(MaxBTSize)보다 크지 않은 경우, BT 구조 또는 TT 구조 중 어느 하나 이상으로 더 분할될 수 있다. BT 구조 및/또는 TT 구조에서는 복수의 분할 방향이 존재할 수 있다. 예컨대, 해당 노드의 블록이 가로로 분할되는 방향과 세로로 분할되는 방향 두 가지가 존재할 수 있다. 도 2의 도시와 같이, MTT 분할이 시작되면, 노드들이 분할되었는지 여부를 지시하는 제2 플래그(mtt_split_flag)와, 분할이 되었다면 추가적으로 분할 방향(vertical 혹은 horizontal)을 나타내는 플래그 및/또는 분할 타입(Binary 혹은 Ternary)을 나타내는 플래그가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다.As illustrated in FIG. 2, a CTU may first be split into a QT structure. The quadtree splitting may be repeated until the size of the splitting block reaches the minimum block size (MinQTSize) of the leaf node allowed in the QT. A first flag (QT_split_flag) indicating whether each node of the QT structure is split into four nodes of the lower layer is encoded by the entropy encoding unit (155) and signaled to the image decoding device. If the leaf node of the QT is not larger than the maximum block size (MaxBTSize) of the root node allowed in the BT, it may be further split into one or more of the BT structure or the TT structure. There may be multiple splitting directions in the BT structure and/or the TT structure. For example, there may be two directions in which the block of the corresponding node is split horizontally and two directions in which the block is split vertically. As illustrated in FIG. 2, when MTT splitting begins, a second flag (mtt_split_flag) indicating whether nodes have been split, and if splitting has occurred, a flag indicating the splitting direction (vertical or horizontal) and/or a flag indicating the splitting type (Binary or Ternary) are encoded by the entropy encoding unit (155) and signaled to the image decoding device.

대안적으로, 각 노드가 하위 레이어의 4 개의 노드들로 분할되는지 여부를 지시하는 제1 플래그(QT_split_flag)를 부호화하기에 앞서, 그 노드가 분할되는지 여부를 지시하는 CU 분할 플래그(split_cu_flag)가 부호화될 수도 있다. CU 분할 플래그(split_cu_flag) 값이 분할되지 않았음을 지시하는 경우, 해당 노드의 블록이 분할 트리 구조에서의 리프 노드(leaf node)가 되어 부호화의 기본 단위인 CU(coding unit)가 된다. CU 분할 플래그(split_cu_flag) 값이 분할됨을 지시하는 경우, 영상 부호화 장치는 전술한 방식으로 제1 플래그부터 부호화를 시작한다.Alternatively, before encoding the first flag (QT_split_flag) indicating whether each node is split into four nodes of a lower layer, a CU split flag (split_cu_flag) indicating whether the node is split may be encoded. If the CU split flag (split_cu_flag) value indicates that the node is not split, the block of the corresponding node becomes a leaf node in the split tree structure and becomes a CU (coding unit), which is a basic unit of encoding. If the CU split flag (split_cu_flag) value indicates that the node is split, the video encoding device starts encoding from the first flag in the above-described manner.

트리 구조의 다른 예시로서 QTBT가 사용되는 경우, 해당 노드의 블록을 동일 크기의 두 개 블록으로 가로로 분할하는 타입(즉, symmetric horizontal splitting)과 세로로 분할하는 타입(즉, symmetric vertical splitting) 두 가지가 존재할 수 있다. BT 구조의 각 노드가 하위 레이어의 블록으로 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할되는 타입을 지시하는 분할 타입 정보가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다. 한편, 해당 노드의 블록을 서로 비대칭 형태의 두 개의 블록으로 분할하는 타입이 추가로 더 존재할 수도 있다. 비대칭 형태에는 해당 노드의 블록을 1:3의 크기 비율을 가지는 두 개의 직사각형 블록으로 분할하는 형태가 포함될 수 있고, 혹은 해당 노드의 블록을 대각선 방향으로 분할하는 형태가 포함될 수도 있다.As another example of a tree structure, when QTBT is used, there may be two types: a type that horizontally splits the block of the corresponding node into two blocks of the same size (i.e., symmetric horizontal splitting) and a type that vertically splits it (i.e., symmetric vertical splitting). A split flag (split_flag) indicating whether each node of the BT structure is split into blocks of a lower layer and split type information indicating the type of split are encoded by the entropy encoding unit (155) and transmitted to the image decoding device. Meanwhile, there may additionally be a type that splits the block of the corresponding node into two blocks of an asymmetrical shape. The asymmetric shape may include a shape that splits the block of the corresponding node into two rectangular blocks with a size ratio of 1:3, or a shape that splits the block of the corresponding node in a diagonal direction.

CU는 CTU로부터의 QTBT 또는 QTBTTT 분할에 따라 다양한 크기를 가질 수 있다. 이하에서는, 부호화 또는 복호화하고자 하는 CU(즉, QTBTTT의 리프 노드)에 해당하는 블록을 '현재블록'이라 칭한다. QTBTTT 분할의 채용에 따라, 현재블록의 모양은 정사각형뿐만 아니라 직사각형일 수도 있다.A CU can have various sizes depending on the QTBT or QTBTTT partitioning from the CTU. Hereinafter, the block corresponding to the CU to be encoded or decoded (i.e., the leaf node of the QTBTTT) is referred to as the "current block." Depending on the QTBTTT partitioning employed, the current block may be rectangular as well as square.

예측부(120)는 현재블록을 예측하여 예측블록을 생성한다. 예측부(120)는 인트라 예측부(122)와 인터 예측부(124)를 포함한다. The prediction unit (120) predicts the current block and generates a prediction block. The prediction unit (120) includes an intra prediction unit (122) and an inter prediction unit (124).

일반적으로, 픽처 내 현재블록들은 각각 예측적으로 코딩될 수 있다. 일반적으로 현재블록의 예측은 (현재블록을 포함하는 픽처로부터의 데이터를 사용하는) 인트라 예측 기술 또는 (현재블록을 포함하는 픽처 이전에 코딩된 픽처로부터의 데이터를 사용하는) 인터 예측 기술을 사용하여 수행될 수 있다. 인터 예측은 단방향 예측과 양방향 예측 모두를 포함한다.In general, each current block within a picture can be predictively coded. Prediction of the current block can typically be performed using either intra-prediction (using data from the picture containing the current block) or inter-prediction (using data from a picture coded before the picture containing the current block). Inter-prediction encompasses both unidirectional and bidirectional prediction.

인트라 예측부(122)는 현재블록이 포함된 현재 픽처 내에서 현재블록의 주변에 위치한 픽셀(참조 픽셀)들을 이용하여 현재블록 내의 픽셀들을 예측한다. 예측 방향에 따라 복수의 인트라 예측모드가 존재한다. 예컨대, 도 3a에서 보는 바와 같이, 복수의 인트라 예측모드는 Planar 모드와 DC 모드를 포함하는 2 개의 비방향성 모드와 65 개의 방향성 모드를 포함할 수 있다. 각 예측모드에 따라 사용할 주변 픽셀과 연산식이 다르게 정의된다.The intra prediction unit (122) predicts pixels within the current block using pixels (reference pixels) located around the current block within the current picture including the current block. There are multiple intra prediction modes depending on the prediction direction. For example, as shown in Fig. 3a, the multiple intra prediction modes may include two non-directional modes including the Planar mode and the DC mode, and 65 directional modes. The surrounding pixels to be used and the calculation formula are defined differently depending on each prediction mode.

직사각형 모양의 현재블록에 대한 효율적인 방향성 예측을 위해, 도 3b에 점선 화살표로 도시된 방향성 모드들(67 ~ 80번, -1 ~ -14 번 인트라 예측모드들)이 추가로 사용될 수 있다. 이들은 "광각 인트라 예측모드들(wide angle intra-prediction modes)"로 지칭될 수 있다. 도 3b에서 화살표들은 예측에 사용되는 대응하는 참조샘플들을 가리키는 것이며, 예측 방향을 나타내는 것이 아니다. 예측 방향은 화살표가 가리키는 방향과 반대이다. 광각 인트라 예측모드들은 현재블록이 직사각형일 때 추가적인 비트 전송 없이 특정 방향성 모드를 반대방향으로 예측을 수행하는 모드이다. 이때 광각 인트라 예측모드들 중에서, 직사각형의 현재블록의 너비와 높이의 비율에 의해, 현재블록에 이용 가능한 일부 광각 인트라 예측모드들이 결정될 수 있다. 예컨대, 45도보다 작은 각도를 갖는 광각 인트라 예측모드들(67 ~ 80번 인트라 예측모드들)은 현재블록이 높이가 너비보다 작은 직사각형 형태일 때 이용 가능하고, -135도보다 큰 각도를 갖는 광각 인트라 예측모드들(-1 ~ -14 번 인트라 예측모드들)은 현재블록이 너비가 높이보다 큰 직사각형 형태일 때 이용 가능하다.For efficient directional prediction for a rectangular current block, directional modes (intra prediction modes 67 to 80 and -1 to -14) indicated by dotted arrows in Fig. 3b may be additionally used. These may be referred to as "wide-angle intra-prediction modes." In Fig. 3b, the arrows point to corresponding reference samples used for prediction, and do not indicate the prediction direction. The prediction direction is opposite to the direction indicated by the arrows. Wide-angle intra-prediction modes are modes that perform prediction in the opposite direction of a specific directional mode without additional bit transmission when the current block is rectangular. At this time, among the wide-angle intra-prediction modes, some wide-angle intra-prediction modes available for the current block may be determined based on the ratio of the width and height of the rectangular current block. For example, wide-angle intra prediction modes (intra prediction modes 67 to 80) having an angle less than 45 degrees are available when the current block is a rectangular shape whose height is smaller than its width, and wide-angle intra prediction modes (intra prediction modes -1 to -14) having an angle greater than -135 degrees are available when the current block is a rectangular shape whose width is larger than its height.

인트라 예측부(122)는 현재블록을 부호화하는 데 사용할 인트라 예측모드를 결정할 수 있다. 일부 예들에서, 인트라 예측부(122)는 여러 인트라 예측모드들을 사용하여 현재블록을 인코딩하고, 테스트된 모드들로부터 사용할 적절한 인트라 예측모드를 선택할 수도 있다. 예를 들어, 인트라 예측부(122)는 여러 테스트된 인트라 예측모드들에 대한 비트율 왜곡(rate-distortion) 분석을 사용하여 비트율 왜곡 값들을 계산하고, 테스트된 모드들 중 최선의 비트율 왜곡 특징들을 갖는 인트라 예측모드를 선택할 수도 있다.The intra prediction unit (122) can determine the intra prediction mode to be used to encode the current block. In some examples, the intra prediction unit (122) can encode the current block using multiple intra prediction modes and select an appropriate intra prediction mode to be used from the tested modes. For example, the intra prediction unit (122) can calculate bit-rate distortion values using rate-distortion analysis for multiple tested intra prediction modes and select the intra prediction mode with the best bit-rate distortion characteristics among the tested modes.

인트라 예측부(122)는 복수의 인트라 예측모드 중에서 하나의 인트라 예측모드를 선택하고, 선택된 인트라 예측모드에 따라 결정되는 주변 픽셀(참조 픽셀)과 연산식을 사용하여 현재블록을 예측한다. 선택된 인트라 예측모드에 대한 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.The intra prediction unit (122) selects one intra prediction mode from among multiple intra prediction modes and predicts the current block using surrounding pixels (reference pixels) and an operation formula determined according to the selected intra prediction mode. Information about the selected intra prediction mode is encoded by the entropy encoding unit (155) and transmitted to the image decoding device.

인터 예측부(124)는 움직임 보상 과정을 이용하여 현재블록에 대한 예측블록을 생성한다. 인터 예측부(124)는 현재 픽처보다 먼저 부호화 및 복호화된 참조픽처 내에서 현재블록과 가장 유사한 블록을 탐색하고, 그 탐색된 블록을 이용하여 현재블록에 대한 예측블록을 생성한다. 그리고, 현재 픽처 내의 현재블록과 참조픽처 내의 예측블록 간의 변위(displacement)에 해당하는 움직임벡터(Motion Vector: MV)를 생성한다. 일반적으로, 움직임 추정은 루마(luma) 성분에 대해 수행되고, 루마 성분에 기초하여 계산된 움직임벡터는 루마 성분 및 크로마 성분 모두에 대해 사용된다. 현재블록을 예측하기 위해 사용된 참조픽처에 대한 정보 및 움직임벡터에 대한 정보를 포함하는 움직임 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.The inter prediction unit (124) generates a prediction block for the current block using a motion compensation process. The inter prediction unit (124) searches for a block most similar to the current block within reference pictures that were encoded and decoded before the current picture, and generates a prediction block for the current block using the searched block. Then, a motion vector (MV) corresponding to the displacement between the current block within the current picture and the prediction block within the reference picture is generated. Generally, motion estimation is performed on the luma component, and the motion vector calculated based on the luma component is used for both the luma component and the chroma component. The motion information including information on the reference picture used to predict the current block and information on the motion vector is encoded by the entropy encoding unit (155) and transmitted to the image decoding device.

인터 예측부(124)는, 예측의 정확성을 높이기 위해, 참조픽처 또는 참조 블록에 대한 보간을 수행할 수도 있다. 즉, 연속한 두 정수 샘플 사이의 서브 샘플들은 그 두 정수 샘플을 포함한 연속된 복수의 정수 샘플들에 필터 계수들을 적용하여 보간된다. 보간된 참조픽처에 대해서 현재블록과 가장 유사한 블록을 탐색하는 과정을 수행하면, 움직임벡터는 정수 샘플 단위의 정밀도(precision)가 아닌 소수 단위의 정밀도까지 표현될 수 있다. 움직임벡터의 정밀도 또는 해상도(resolution)는 부호화하고자 하는 대상 영역, 예컨대, 슬라이스, 타일, CTU, CU 등의 단위마다 다르게 설정될 수 있다. 이와 같은 적응적 움직임벡터 해상도(Adaptive Motion Vector Resolution: AMVR)가 적용되는 경우 각 대상 영역에 적용할 움직임벡터 해상도에 대한 정보는 대상 영역마다 시그널링되어야 한다. 예컨대, 대상 영역이 CU인 경우, 각 CU마다 적용된 움직임벡터 해상도에 대한 정보가 시그널링된다. 움직임벡터 해상도에 대한 정보는 후술할 차분 움직임벡터의 정밀도를 나타내는 정보일 수 있다.The inter prediction unit (124) may perform interpolation on a reference picture or a reference block to improve prediction accuracy. That is, subsamples between two consecutive integer samples are interpolated by applying filter coefficients to a plurality of consecutive integer samples including the two integer samples. When a process of searching for a block most similar to the current block is performed on the interpolated reference picture, the motion vector can be expressed up to a precision in decimal units rather than a precision in integer sample units. The precision or resolution of the motion vector can be set differently for each target region to be encoded, such as a slice, tile, CTU, CU, etc. When such adaptive motion vector resolution (AMVR) is applied, information on the motion vector resolution to be applied to each target region must be signaled for each target region. For example, when the target region is a CU, information on the motion vector resolution applied to each CU is signaled. Information on the motion vector resolution may be information indicating the precision of a differential motion vector, which will be described later.

한편, 인터 예측부(124)는 양방향 예측(bi-prediction)을 이용하여 인터 예측을 수행할 수 있다. 양방향 예측의 경우, 두 개의 참조픽처와 각 참조픽처 내에서 현재블록과 가장 유사한 블록 위치를 나타내는 두 개의 움직임벡터가 이용된다. 인터 예측부(124)는 참조픽처 리스트 0(RefPicList0) 및 참조픽처 리스트 1(RefPicList1)으로부터 각각 제1 참조픽처 및 제2 참조픽처를 선택하고, 각 참조픽처 내에서 현재블록과 유사한 블록을 탐색하여 제1 참조블록과 제2 참조블록을 생성한다. 그리고, 제1 참조블록과 제2 참조블록을 평균 또는 가중 평균하여 현재블록에 대한 예측블록을 생성한다. 그리고 현재블록을 예측하기 위해 사용한 두 개의 참조픽처에 대한 정보 및 두 개의 움직임벡터에 대한 정보를 포함하는 움직임 정보를 엔트로피 부호화부(155)로 전달한다. 여기서, 참조픽처 리스트 0은 기복원된 픽처들 중 디스플레이 순서에서 현재 픽처 이전의 픽처들로 구성되고, 참조픽처 리스트 1은 기복원된 픽처들 중 디스플레이 순서에서 현재 픽처 이후의 픽처들로 구성될 수 있다. 그러나 반드시 이에 한정되는 것은 아니며, 디스플레이 순서 상으로 현재 픽처 이후의 기복원 픽처들이 참조픽처 리스트 0에 추가로 더 포함될 수 있고, 역으로 현재 픽처 이전의 기복원 픽처들이 참조픽처 리스트 1에 추가로 더 포함될 수도 있다.Meanwhile, the inter prediction unit (124) can perform inter prediction using bi-prediction. In the case of bi-prediction, two reference pictures and two motion vectors indicating the block position most similar to the current block within each reference picture are used. The inter prediction unit (124) selects a first reference picture and a second reference picture from reference picture list 0 (RefPicList0) and reference picture list 1 (RefPicList1), respectively, and searches for a block similar to the current block within each reference picture to generate a first reference block and a second reference block. Then, the first reference block and the second reference block are averaged or weighted averaged to generate a prediction block for the current block. Then, motion information including information on two reference pictures used to predict the current block and information on two motion vectors is transmitted to the entropy encoding unit (155). Here, reference picture list 0 may be composed of pictures that are before the current picture in display order among the restored pictures, and reference picture list 1 may be composed of pictures that are after the current picture in display order among the restored pictures. However, this is not necessarily limited to this, and restored pictures that are after the current picture in display order may be additionally included in reference picture list 0, and conversely, restored pictures that are before the current picture may be additionally included in reference picture list 1.

움직임 정보를 부호화하는 데에 소요되는 비트량을 최소화하기 위해 다양한 방법이 사용될 수 있다. Various methods can be used to minimize the number of bits required to encode motion information.

예컨대, 현재블록의 참조픽처와 움직임벡터가 주변블록의 참조픽처 및 움직임벡터와 동일한 경우에는 그 주변블록을 식별할 수 있는 정보를 부호화함으로써, 현재블록의 움직임 정보를 영상 복호화 장치로 전달할 수 있다. 이러한 방법을 '머지 모드(merge mode)'라 한다.For example, if the reference picture and motion vector of the current block are identical to those of a neighboring block, the motion information of the current block can be transmitted to the image decoding device by encoding information that can identify the neighboring block. This method is called 'merge mode'.

머지 모드에서, 인터 예측부(124)는 현재블록의 주변블록들로부터 기 결정된 개수의 머지 후보블록(이하, '머지 후보'라 함)들을 선택한다. In merge mode, the inter prediction unit (124) selects a predetermined number of merge candidate blocks (hereinafter referred to as 'merge candidates') from the surrounding blocks of the current block.

머지 후보를 유도하기 위한 주변블록으로는, 도 4에 도시된 바와 같이, 현재 픽처 내에서 현재블록에 인접한 좌측블록(A0), 좌하단블록(A1), 상단블록(B0), 우상단블록(B1), 및 좌상단블록(B2) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조픽처(현재블록을 예측하기 위해 사용된 참조픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 머지 후보로서 사용될 수도 있다. 예컨대, 참조픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 머지 후보로서 추가로 더 사용될 수 있다. 이상에서 기술된 방법에 의해 선정된 머지 후보의 개수가 기설정된 개수보다 작으면, 0 벡터를 머지 후보에 추가한다. As the surrounding blocks for deriving merge candidates, all or part of the left block (A0), the lower left block (A1), the upper block (B0), the upper right block (B1), and the upper left block (B2) adjacent to the current block within the current picture may be used, as illustrated in FIG. 4. In addition, a block located within a reference picture (which may or may not be the same as the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as a merge candidate. For example, a block co-located with the current block within the reference picture or blocks adjacent to the block at the co-located block may be additionally used as a merge candidate. If the number of merge candidates selected by the method described above is less than a preset number, a 0 vector is added to the merge candidates.

인터 예측부(124)는 이러한 주변블록들을 이용하여 기결정된 개수의 머지 후보를 포함하는 머지 리스트를 구성한다. 머지 리스트에 포함된 머지 후보들 중에서 현재블록의 움직임정보로서 사용할 머지 후보를 선택하고 선택된 후보를 식별하기 위한 머지 인덱스 정보를 생성한다. 생성된 머지 인덱스 정보는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 전달된다.The inter prediction unit (124) uses these surrounding blocks to construct a merge list containing a predetermined number of merge candidates. Among the merge candidates included in the merge list, the merge candidate to be used as motion information of the current block is selected and merge index information for identifying the selected candidate is generated. The generated merge index information is encoded by the entropy encoding unit (155) and transmitted to the video decoding device.

머지 스킵(merge skip) 모드는 머지 모드의 특별한 경우로서, 양자화를 수행한 후, 엔트로피 부호화를 위한 변환 계수가 모두 영(zero)에 가까울 때, 잔차신호들의 전송 없이 주변블록 선택 정보만을 전송한다. 머지 스킵 모드를 이용함으로써, 움직임이 적은 영상, 정지 영상, 스크린 콘텐츠 영상 등에서 상대적으로 높은 부호화 효율을 달성할 수 있다. Merge Skip mode is a special case of merge mode. After quantization, when all transform coefficients for entropy encoding are close to zero, only neighboring block selection information is transmitted without transmitting residual signals. By utilizing merge skip mode, relatively high encoding efficiency can be achieved for low-motion images, still images, and screen content images.

이하, 머지 모드와 머지 스킵 모드를 통칭하여, 머지/스킵 모드로 나타낸다. Hereinafter, merge mode and merge skip mode are collectively referred to as merge/skip mode.

움직임 정보를 부호화하기 위한 또 다른 방법은 AMVP(Advanced Motion Vector Prediction) 모드이다.Another method for encoding motion information is Advanced Motion Vector Prediction (AMVP) mode.

AMVP 모드에서, 인터 예측부(124)는 현재블록의 주변블록들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터 후보들을 유도한다. 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로는, 도 4에 도시된 현재 픽처 내에서 현재블록에 인접한 좌측블록(A0), 좌하단블록(A1), 상단블록(B0), 우상단블록(B1), 및 좌상단블록(B2) 중에서 전부 또는 일부가 사용될 수 있다. 또한, 현재블록이 위치한 현재 픽처가 아닌 참조픽처(현재블록을 예측하기 위해 사용된 참조픽처와 동일할 수도 있고 다를 수도 있음) 내에 위치한 블록이 예측 움직임벡터 후보들을 유도하기 위해 사용되는 주변블록으로서 사용될 수도 있다. 예컨대, 참조픽처 내에서 현재블록과 동일 위치에 있는 블록(co-located block) 또는 그 동일 위치의 블록에 인접한 블록들이 사용될 수 있다. 이상에서 기술된 방법에 의해 움직임벡터 후보의 개수가 기설정된 개수보다 작으면, 0 벡터를 움직임벡터 후보에 추가한다. In AMVP mode, the inter prediction unit (124) derives predicted motion vector candidates for the motion vector of the current block using neighboring blocks of the current block. As neighboring blocks used to derive predicted motion vector candidates, all or some of the left block (A0), the lower left block (A1), the upper block (B0), the upper right block (B1), and the upper left block (B2) adjacent to the current block in the current picture as shown in FIG. 4 may be used. In addition, a block located in a reference picture (which may or may not be the same as the reference picture used to predict the current block) other than the current picture in which the current block is located may be used as the neighboring block used to derive predicted motion vector candidates. For example, a block co-located with the current block in the reference picture or blocks adjacent to the block in the co-located block may be used. If the number of motion vector candidates is less than a preset number by the method described above, a 0 vector is added to the motion vector candidates.

인터 예측부(124)는 이 주변블록들의 움직임벡터를 이용하여 예측 움직임벡터 후보들을 유도하고, 예측 움직임벡터 후보들을 이용하여 현재블록의 움직임벡터에 대한 예측 움직임벡터를 결정한다. 그리고, 현재블록의 움직임벡터로부터 예측 움직임벡터를 감산하여 차분 움직임벡터를 산출한다. The inter prediction unit (124) derives predicted motion vector candidates using the motion vectors of these surrounding blocks, and determines a predicted motion vector for the motion vector of the current block using the predicted motion vector candidates. Then, the predicted motion vector is subtracted from the motion vector of the current block to produce a differential motion vector.

예측 움직임벡터는 예측 움직임벡터 후보들에 기정의된 함수(예컨대, 중앙값, 평균값 연산 등)를 적용하여 구할 수 있다. 이 경우, 영상 복호화 장치도 기정의된 함수를 알고 있다. 또한, 예측 움직임벡터 후보를 유도하기 위해 사용하는 주변블록은 이미 부호화 및 복호화가 완료된 블록이므로 영상 복호화 장치도 그 주변블록의 움직임벡터도 이미 알고 있다. 그러므로 영상 부호화 장치는 예측 움직임벡터 후보를 식별하기 위한 정보를 부호화할 필요가 없다. 따라서, 이 경우에는 차분 움직임벡터에 대한 정보와 현재블록을 예측하기 위해 사용한 참조픽처에 대한 정보가 부호화된다.The predicted motion vector can be obtained by applying a predefined function (e.g., median, mean, etc.) to the predicted motion vector candidates. In this case, the image decoding device also knows the predefined function. In addition, since the surrounding blocks used to derive the predicted motion vector candidates are blocks that have already been encoded and decoded, the image decoding device also already knows the motion vectors of the surrounding blocks. Therefore, the image encoding device does not need to encode information to identify the predicted motion vector candidates. Therefore, in this case, information about the differential motion vector and information about the reference picture used to predict the current block are encoded.

한편, 예측 움직임벡터는 예측 움직임벡터 후보들 중 어느 하나를 선택하는 방식으로 결정될 수도 있다. 이 경우에는 차분 움직임벡터에 대한 정보 및 현재블록을 예측하기 위해 사용한 참조픽처에 대한 정보와 함께, 선택된 예측 움직임벡터 후보를 식별하기 위한 정보가 추가로 부호화된다.Alternatively, the predicted motion vector can be determined by selecting one of the predicted motion vector candidates. In this case, information for identifying the selected predicted motion vector candidate is additionally encoded, along with information about the differential motion vector and the reference picture used to predict the current block.

감산기(130)는 현재블록으로부터 인트라 예측부(122) 또는 인터 예측부(124)에 의해 생성된 예측블록을 감산하여 잔차블록을 생성한다.The subtractor (130) subtracts the prediction block generated by the intra prediction unit (122) or inter prediction unit (124) from the current block to generate a residual block.

변환부(140)는 공간 영역의 픽셀 값들을 가지는 잔차블록 내의 잔차신호들을 주파수 도메인의 변환 계수로 변환한다. 변환부(140)는 잔차블록의 전체 크기를 변환 단위로 사용하여 잔차블록 내의 잔차신호들을 변환할 수 있으며, 또는 잔차블록을 복수 개의 서브블록으로 분할하고 그 서브블록을 변환 단위로 사용하여 변환을 할 수도 있다. 또는, 변환 영역 및 비변환 영역인 두 개의 서브블록으로 구분하여, 변환 영역 서브블록만 변환 단위로 사용하여 잔차신호들을 변환할 수 있다. 여기서, 변환 영역 서브블록은 가로축 (혹은 세로축) 기준 1:1의 크기 비율을 가지는 두 개의 직사각형 블록 중 하나일 수 있다. 이런 경우, 서브블록 만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 위치 정보(cu_sbt_pos_flag)가 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. 또한, 변환 영역 서브블록의 크기는 가로축 (혹은 세로축) 기준 1:3의 크기 비율을 가질 수 있으며, 이런 경우 해당 분할을 구분하는 플래그(cu_sbt_quad_flag)가 추가적으로 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. The transformation unit (140) transforms residual signals within a residual block having pixel values in a spatial domain into transform coefficients in a frequency domain. The transformation unit (140) may transform the residual signals within the residual block using the entire size of the residual block as a transformation unit, or may divide the residual block into a plurality of sub-blocks and use the sub-blocks as transformation units to perform the transformation. Alternatively, the residual signals may be transformed using only the transformation domain sub-block as a transformation unit by dividing the sub-blocks into two sub-blocks, that is, a transformation domain and a non-transform domain. Here, the transformation domain sub-block may be one of two rectangular blocks having a size ratio of 1:1 with respect to the horizontal axis (or vertical axis). In this case, a flag (cu_sbt_flag) indicating that only a sub-block has been converted, directionality (vertical/horizontal) information (cu_sbt_horizontal_flag), and/or position information (cu_sbt_pos_flag) are encoded by the entropy encoding unit (155) and signaled to the image decoding device. In addition, the size of the conversion area sub-block may have a size ratio of 1:3 with respect to the horizontal axis (or vertical axis), and in this case, a flag (cu_sbt_quad_flag) distinguishing the corresponding division is additionally encoded by the entropy encoding unit (155) and signaled to the image decoding device.

한편, 변환부(140)는 잔차블록에 대해 가로 방향과 세로 방향으로 개별적으로 변환을 수행할 수 있다. 변환을 위해, 다양한 타입의 변환 함수 또는 변환 행렬이 사용될 수 있다. 예컨대, 가로 방향 변환과 세로 방향 변환을 위한 변환 함수의 쌍을 MTS(Multiple Transform Set)로 정의할 수 있다. 변환부(140)는 MTS 중 변환 효율이 가장 좋은 하나의 변환 함수 쌍을 선택하고 가로 및 세로 방향으로 각각 잔차블록을 변환할 수 있다. MTS 중에서 선택된 변환 함수 쌍에 대한 정보(mts_idx)는 엔트로피 부호화부(155)에 의해 부호화되어 영상 복호화 장치로 시그널링된다. Meanwhile, the transformation unit (140) can individually perform transformations on the residual block in the horizontal and vertical directions. For the transformation, various types of transformation functions or transformation matrices can be used. For example, a pair of transformation functions for horizontal transformation and vertical transformation can be defined as a Multiple Transform Set (MTS). The transformation unit (140) can select one transformation function pair with the best transformation efficiency among the MTS and transform the residual block in the horizontal and vertical directions, respectively. Information (mts_idx) on the transformation function pair selected among the MTS is encoded by the entropy encoding unit (155) and signaled to the image decoding device.

양자화부(145)는 변환부(140)로부터 출력되는 변환 계수들을 양자화 파라미터를 이용하여 양자화하고, 양자화된 변환 계수들을 엔트로피 부호화부(155)로 출력한다. 양자화부(145)는, 어떤 블록 혹은 프레임에 대해, 변환 없이, 관련된 잔차 블록을 곧바로 양자화할 수도 있다. 양자화부(145)는 변환블록 내의 변환 계수들의 위치에 따라 서로 다른 양자화 계수(스케일링 값)을 적용할 수도 있다. 2차원으로 배열된 양자화된 변환 계수들에 적용되는 양자화 행렬은 부호화되어 영상 복호화 장치로 시그널링될 수 있다. The quantization unit (145) quantizes the transform coefficients output from the transform unit (140) using quantization parameters and outputs the quantized transform coefficients to the entropy encoding unit (155). The quantization unit (145) may directly quantize a related residual block without transformation for a certain block or frame. The quantization unit (145) may also apply different quantization coefficients (scaling values) according to the positions of the transform coefficients within the transform block. The quantization matrix applied to the quantized transform coefficients arranged in two dimensions may be encoded and signaled to an image decoding device.

재정렬부(150)는 양자화된 잔차값에 대해 계수값의 재정렬을 수행할 수 있다.The rearrangement unit (150) can perform rearrangement of coefficient values for quantized residual values.

재정렬부(150)는 계수 스캐닝(coefficient scanning)을 이용하여 2차원의 계수 어레이를 1차원의 계수 시퀀스로 변경할 수 있다. 예를 들어, 재정렬부(150)에서는 지그-재그 스캔(zig-zag scan) 또는 대각선 스캔(diagonal scan)을 이용하여 DC 계수부터 고주파수 영역의 계수까지 스캔하여 1차원의 계수 시퀀스를 출력할 수 있다. 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔 대신 2차원의 계수 어레이를 열 방향으로 스캔하는 수직 스캔, 2차원의 블록 형태 계수를 행 방향으로 스캔하는 수평 스캔이 사용될 수도 있다. 즉, 변환 단위의 크기 및 인트라 예측모드에 따라 지그-재그 스캔, 대각선 스캔, 수직 방향 스캔 및 수평 방향 스캔 중에서 사용될 스캔 방법이 결정될 수도 있다.The reordering unit (150) can change a two-dimensional coefficient array into a one-dimensional coefficient sequence by using coefficient scanning. For example, the reordering unit (150) can output a one-dimensional coefficient sequence by scanning from the DC coefficient to the coefficients of the high-frequency region by using a zig-zag scan or a diagonal scan. Depending on the size of the transformation unit and the intra prediction mode, a vertical scan that scans the two-dimensional coefficient array in the column direction or a horizontal scan that scans the two-dimensional block-shaped coefficients in the row direction may be used instead of the zig-zag scan. That is, depending on the size of the transformation unit and the intra prediction mode, the scanning method to be used may be determined among the zig-zag scan, the diagonal scan, the vertical scan, and the horizontal scan.

엔트로피 부호화부(155)는, CABAC(Context-based Adaptive Binary Arithmetic Code), 지수 골롬(Exponential Golomb) 등의 다양한 부호화 방식을 사용하여, 재정렬부(150)로부터 출력된 1차원의 양자화된 변환 계수들의 시퀀스를 부호화함으로써 비트스트림을 생성한다. The entropy encoding unit (155) generates a bitstream by encoding a sequence of one-dimensional quantized transform coefficients output from the rearrangement unit (150) using various encoding methods such as CABAC (Context-based Adaptive Binary Arithmetic Code) and Exponential Golomb.

또한, 엔트로피 부호화부(155)는 블록 분할과 관련된 CTU size, CU 분할 플래그, QT 분할 플래그, MTT 분할 타입, MTT 분할 방향 등의 정보를 부호화하여, 영상 복호화 장치가 영상 부호화 장치와 동일하게 블록을 분할할 수 있도록 한다. 또한, 엔트로피 부호화부(155)는 현재블록이 인트라 예측에 의해 부호화되었는지 아니면 인터 예측에 의해 부호화되었는지 여부를 지시하는 예측 타입에 대한 정보를 부호화하고, 예측 타입에 따라 인트라 예측정보(즉, 인트라 예측모드에 대한 정보) 또는 인터 예측정보(움직임 정보의 부호화 모드(머지 모드 또는 AMVP 모드), 머지 모드의 경우 머지 인덱스, AMVP 모드의 경우 참조픽처 인덱스 및 차분 움직임벡터에 대한 정보)를 부호화한다. 또한, 엔트로피 부호화부(155)는 양자화와 관련된 정보, 즉, 양자화 파라미터에 대한 정보 및 양자화 행렬에 대한 정보를 부호화한다.In addition, the entropy encoding unit (155) encodes information related to block division, such as CTU size, CU division flag, QT division flag, MTT division type, and MTT division direction, so that the image decoding device can divide the block in the same manner as the image encoding device. In addition, the entropy encoding unit (155) encodes information about a prediction type indicating whether the current block is encoded by intra prediction or inter prediction, and encodes intra prediction information (i.e., information about an intra prediction mode) or inter prediction information (information about an encoding mode of motion information (merge mode or AMVP mode), a merge index in the case of a merge mode, and a reference picture index and a differential motion vector in the case of an AMVP mode) according to the prediction type. In addition, the entropy encoding unit (155) encodes information related to quantization, that is, information about a quantization parameter and information about a quantization matrix.

역양자화부(160)는 양자화부(145)로부터 출력되는 양자화된 변환 계수들을 역양자화하여 변환 계수들을 생성한다. 역변환부(165)는 역양자화부(160)로부터 출력되는 변환 계수들을 주파수 도메인으로부터 공간 도메인으로 변환하여 잔차블록을 복원한다.The inverse quantization unit (160) inversely quantizes the quantized transform coefficients output from the quantization unit (145) to generate transform coefficients. The inverse transform unit (165) transforms the transform coefficients output from the inverse quantization unit (160) from the frequency domain to the spatial domain to restore the residual block.

가산기(170)는 복원된 잔차블록과 예측부(120)에 의해 생성된 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 다음 순서의 블록을 인트라 예측할 때 참조 픽셀들로서 사용된다.An adder (170) adds the restored residual block and the predicted block generated by the prediction unit (120) to restore the current block. The pixels within the restored current block are used as reference pixels when intra-predicting the next block.

루프(loop) 필터부(180)는 블록 기반의 예측 및 변환/양자화로 인해 발생하는 블록킹 아티팩트(blocking artifacts), 링잉 아티팩트(ringing artifacts), 블러링 아티팩트(blurring artifacts) 등을 줄이기 위해 복원된 픽셀들에 대한 필터링을 수행한다. 루프 필터부(180)는 인루프(in-loop) 필터로서 디블록킹 필터(182), SAO(Sample Adaptive Offset) 필터(184) 및 ALF(Adaptive Loop Filter, 186)의 전부 또는 일부를 포함할 수 있다.The loop filter unit (180) performs filtering on restored pixels to reduce blocking artifacts, ringing artifacts, blurring artifacts, etc. that occur due to block-based prediction and transformation/quantization. The loop filter unit (180) may include all or part of a deblocking filter (182), a sample adaptive offset (SAO) filter (184), and an adaptive loop filter (ALF, 186) as an in-loop filter.

디블록킹 필터(182)는 블록 단위의 부호화/복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해 복원된 블록 간의 경계를 필터링하고, SAO 필터(184) 및 ALF(186)는 디블록킹 필터링된 영상에 대해 추가적인 필터링을 수행한다. SAO 필터(184) 및 ALF(186)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀들과 원본 픽셀들 간의 차이를 보상하기 위해 사용되는 필터이다. SAO 필터(184)는 CTU 단위로 오프셋을 적용함으로써 주관적 화질뿐만 아니라 부호화 효율도 향상시킨다. 이에 비하여 ALF(186)는 블록 단위의 필터링을 수행하는데, 해당 블록의 에지 및 변화량의 정도를 구분하여 상이한 필터를 적용하여 왜곡을 보상한다. ALF에 사용될 필터 계수들에 대한 정보는 부호화되어 영상 복호화 장치로 시그널링될 수 있다.The deblocking filter (182) filters the boundaries between restored blocks to remove blocking artifacts caused by block-based encoding/decoding, and the SAO filter (184) and the ALF (186) perform additional filtering on the deblocking-filtered image. The SAO filter (184) and the ALF (186) are filters used to compensate for the differences between restored pixels and original pixels caused by lossy coding. The SAO filter (184) improves not only subjective image quality but also encoding efficiency by applying an offset in units of CTUs. In contrast, the ALF (186) performs block-based filtering, and compensates for distortion by applying different filters by distinguishing the edges and degrees of variation of the corresponding block. Information on filter coefficients to be used in the ALF can be encoded and signaled to an image decoding device.

디블록킹 필터(182), SAO 필터(184) 및 ALF(186)를 통해 필터링된 복원블록은 메모리(190)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조픽처로 사용될 수 있다. The restored blocks filtered through the deblocking filter (182), SAO filter (184), and ALF (186) are stored in the memory (190). When all blocks within a picture are restored, the restored picture can be used as a reference picture for inter-predicting blocks within a picture to be encoded later.

영상 부호화 장치는 부호화된 비디오 데이터의 비트스트림을 비일시적인 기록매체에 저장하거나 통신 네트워크를 이용하여 영상 복호화 장치에게 전송할 수 있다.The video encoding device can store the bitstream of encoded video data on a non-transitory storage medium or transmit it to the video decoding device using a communication network.

도 5는 본 개시의 기술들을 구현할 수 있는 영상 복호화 장치의 예시적인 블록도이다. 이하에서는 도 5를 참조하여 영상 복호화 장치와 이 장치의 하위 구성들에 대하여 설명하도록 한다.FIG. 5 is an exemplary block diagram of an image decoding device capable of implementing the techniques of the present disclosure. Hereinafter, the image decoding device and its subcomponents will be described with reference to FIG. 5.

영상 복호화 장치는 엔트로피 복호화부(510), 재정렬부(515), 역양자화부(520), 역변환부(530), 예측부(540), 가산기(550), 루프 필터부(560) 및 메모리(570)를 포함하여 구성될 수 있다. The video decoding device may be configured to include an entropy decoding unit (510), a rearrangement unit (515), an inverse quantization unit (520), an inverse transformation unit (530), a prediction unit (540), an adder (550), a loop filter unit (560), and a memory (570).

도 1의 영상 부호화 장치와 마찬가지로, 영상 복호화 장치의 각 구성요소는 하드웨어 또는 소프트웨어로 구현되거나, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 각 구성요소의 기능이 소프트웨어로 구현되고 마이크로프로세서가 각 구성요소에 대응하는 소프트웨어의 기능을 실행하도록 구현될 수도 있다.Similar to the video encoding device of FIG. 1, each component of the video decoding device may be implemented in hardware, software, or a combination of hardware and software. Furthermore, the functions of each component may be implemented in software, with a microprocessor executing the software functions corresponding to each component.

엔트로피 복호화부(510)는 영상 부호화 장치에 의해 생성된 비트스트림을 복호화하여 블록 분할과 관련된 정보를 추출함으로써 복호화하고자 하는 현재블록을 결정하고, 현재블록을 복원하기 위해 필요한 예측정보, 잔차신호들에 대한 정보 등을 추출한다.The entropy decoding unit (510) decodes the bitstream generated by the image encoding device to extract information related to block division, thereby determining the current block to be decoded, and extracts prediction information, information on residual signals, etc. required to restore the current block.

엔트로피 복호화부(510)는 SPS(Sequence Parameter Set) 또는 PPS(Picture Parameter Set)로부터 CTU size에 대한 정보를 추출하여 CTU의 크기를 결정하고, 픽처를 결정된 크기의 CTU로 분할한다. 그리고, CTU를 트리 구조의 최상위 레이어, 즉, 루트 노드로 결정하고, CTU에 대한 분할정보를 추출함으로써 트리 구조를 이용하여 CTU를 분할한다. The entropy decoding unit (510) extracts information about the CTU size from the Sequence Parameter Set (SPS) or the Picture Parameter Set (PPS), determines the size of the CTU, and divides the picture into CTUs of the determined size. Then, the CTU is determined as the top layer of the tree structure, i.e., the root node, and the CTU is divided using the tree structure by extracting division information about the CTU.

예컨대, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 MTT의 분할과 관련된 제2 플래그(mtt_split_flag) 및 분할 방향(vertical / horizontal) 및/또는 분할 타입(binary / ternary) 정보를 추출하여 해당 리프 노드를 MTT 구조로 분할한다. 이에 따라 QT의 리프 노드 이하의 각 노드들을 BT 또는 TT 구조로 반복적으로(recursively) 분할한다.For example, when splitting a CTU using the QTBTTT structure, first, the first flag (QT_split_flag) related to the splitting of QT is extracted, and each node is split into four nodes of the lower layer. Then, for the nodes corresponding to the leaf nodes of QT, the second flag (mtt_split_flag) related to the splitting of MTT and the split direction (vertical / horizontal) and/or split type (binary / ternary) information are extracted, and the corresponding leaf nodes are split into the MTT structure. Accordingly, each node below the leaf nodes of QT are split recursively into the BT or TT structure.

또 다른 예로서, QTBTTT 구조를 사용하여 CTU를 분할하는 경우, 먼저 CU의 분할 여부를 지시하는 CU 분할 플래그(split_cu_flag)를 추출하고, 해당 블록이 분할된 경우, 제1 플래그(QT_split_flag)를 추출할 수도 있다. 분할 과정에서 각 노드는 0번 이상의 반복적인 QT 분할 후에 0번 이상의 반복적인 MTT 분할이 발생할 수 있다. 예컨대, CTU는 바로 MTT 분할이 발생하거나, 반대로 다수 번의 QT 분할만 발생할 수도 있다. As another example, when splitting a CTU using the QTBTTT structure, the CU split flag (split_cu_flag) indicating whether the CU is split is first extracted, and if the block is split, the first flag (QT_split_flag) may be extracted. During the splitting process, each node may undergo zero or more repeated QT splits followed by zero or more repeated MTT splits. For example, a CTU may undergo an MTT split right away, or conversely, may undergo only multiple QT splits.

다른 예로서, QTBT 구조를 사용하여 CTU를 분할하는 경우, QT의 분할과 관련된 제1 플래그(QT_split_flag)를 추출하여 각 노드를 하위 레이어의 네 개의 노드로 분할한다. 그리고, QT의 리프 노드에 해당하는 노드에 대해서는 BT로 더 분할되는지 여부를 지시하는 분할 플래그(split_flag) 및 분할 방향 정보를 추출한다.As another example, when splitting a CTU using the QTBT structure, the first flag (QT_split_flag) related to the splitting of QT is extracted, and each node is split into four nodes of the lower layer. Furthermore, for nodes corresponding to leaf nodes of QT, a split flag (split_flag) indicating whether to further split into BTs and splitting direction information are extracted.

한편, 엔트로피 복호화부(510)는 트리 구조의 분할을 이용하여 복호화하고자 하는 현재블록을 결정하게 되면, 현재블록이 인트라 예측되었는지 아니면 인터 예측되었는지를 지시하는 예측 타입에 대한 정보를 추출한다. 예측 타입 정보가 인트라 예측을 지시하는 경우, 엔트로피 복호화부(510)는 현재블록의 인트라 예측정보(인트라 예측모드)에 대한 신택스 요소를 추출한다. 예측 타입 정보가 인터 예측을 지시하는 경우, 엔트로피 복호화부(510)는 인터 예측정보에 대한 신택스 요소, 즉, 움직임벡터 및 그 움직임벡터가 참조하는 참조픽처를 나타내는 정보를 추출한다.Meanwhile, when the entropy decoding unit (510) determines the current block to be decoded by using the division of the tree structure, it extracts information on the prediction type indicating whether the current block is intra-predicted or inter-predicted. If the prediction type information indicates intra-prediction, the entropy decoding unit (510) extracts syntax elements for intra-prediction information (intra-prediction mode) of the current block. If the prediction type information indicates inter-prediction, the entropy decoding unit (510) extracts syntax elements for inter-prediction information, i.e., information indicating a motion vector and a reference picture referenced by the motion vector.

또한, 엔트로피 복호화부(510)는 양자화 관련된 정보, 및 잔차신호들에 대한 정보로서 현재블록의 양자화된 변환계수들에 대한 정보를 추출한다.Additionally, the entropy decoding unit (510) extracts information about the quantized transform coefficients of the current block as information related to quantization and information about residual signals.

재정렬부(515)는, 영상 부호화 장치에 의해 수행된 계수 스캐닝 순서의 역순으로, 엔트로피 복호화부(510)에서 엔트로피 복호화된 1차원의 양자화된 변환계수들의 시퀀스를 다시 2차원의 계수 어레이(즉, 블록)로 변경할 수 있다.The rearrangement unit (515) can change the sequence of one-dimensional quantized transform coefficients entropy-decoded in the entropy decoding unit (510) back into a two-dimensional coefficient array (i.e., block) in the reverse order of the coefficient scanning performed by the image encoding device.

역양자화부(520)는 양자화된 변환계수들을 역양자화하고, 양자화 파라미터를 이용하여 양자화된 변환계수들을 역양자화한다. 역양자화부(520)는 2차원으로 배열된 양자화된 변환계수들에 대해 서로 다른 양자화 계수(스케일링 값)을 적용할 수도 있다. 역양자화부(520)는 영상 부호화 장치로부터 양자화 계수(스케일링 값)들의 행렬을 양자화된 변환계수들의 2차원 어레이에 적용하여 역양자화를 수행할 수 있다. The inverse quantization unit (520) inversely quantizes the quantized transform coefficients and inversely quantizes the quantized transform coefficients using the quantization parameters. The inverse quantization unit (520) may also apply different quantization coefficients (scaling values) to the quantized transform coefficients arranged in two dimensions. The inverse quantization unit (520) may perform inverse quantization by applying a matrix of quantized coefficients (scaling values) from an image encoding device to a two-dimensional array of quantized transform coefficients.

역변환부(530)는 역양자화된 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환하여 잔차신호들을 복원함으로써 현재블록에 대한 잔차블록을 생성한다.The inverse transform unit (530) inversely transforms the inverse quantized transform coefficients from the frequency domain to the spatial domain to restore residual signals, thereby generating a residual block for the current block.

또한, 역변환부(530)는 변환블록의 일부 영역(서브블록)만 역변환하는 경우, 변환블록의 서브블록만을 변환하였음을 지시하는 플래그(cu_sbt_flag), 서브블록의 방향성(vertical/horizontal) 정보(cu_sbt_horizontal_flag) 및/또는 서브블록의 위치 정보(cu_sbt_pos_flag)를 추출하여, 해당 서브블록의 변환계수들을 주파수 도메인으로부터 공간 도메인으로 역변환함으로써 잔차신호들을 복원하고, 역변환되지 않은 영역에 대해서는 잔차신호들로 “0”값을 채움으로써 현재블록에 대한 최종 잔차블록을 생성한다.In addition, when the inverse transform unit (530) inversely transforms only a portion of a transform block (sub-block), it extracts a flag (cu_sbt_flag) indicating that only a sub-block of the transform block has been transformed, directionality (vertical/horizontal) information (cu_sbt_horizontal_flag) of the sub-block, and/or position information (cu_sbt_pos_flag) of the sub-block, and inversely transforms the transform coefficients of the corresponding sub-block from the frequency domain to the spatial domain to restore residual signals, and fills “0” values with residual signals for areas that have not been inversely transformed, thereby generating a final residual block for the current block.

또한, MTS가 적용된 경우, 역변환부(530)는 영상 부호화 장치로부터 시그널링된 MTS 정보(mts_idx)를 이용하여 가로 및 세로 방향으로 각각 적용할 변환 함수 또는 변환 행렬을 결정하고, 결정된 변환 함수를 이용하여 가로 및 세로 방향으로 변환블록 내의 변환계수들에 대해 역변환을 수행한다.In addition, when MTS is applied, the inverse transform unit (530) determines a transform function or a transform matrix to be applied in the horizontal and vertical directions using MTS information (mts_idx) signaled from the image encoding device, and performs inverse transform on the transform coefficients within the transform block in the horizontal and vertical directions using the determined transform function.

예측부(540)는 인트라 예측부(542) 및 인터 예측부(544)를 포함할 수 있다. 인트라 예측부(542)는 현재블록의 예측 타입이 인트라 예측일 때 활성화되고, 인터 예측부(544)는 현재블록의 예측 타입이 인터 예측일 때 활성화된다.The prediction unit (540) may include an intra prediction unit (542) and an inter prediction unit (544). The intra prediction unit (542) is activated when the prediction type of the current block is intra prediction, and the inter prediction unit (544) is activated when the prediction type of the current block is inter prediction.

인트라 예측부(542)는 엔트로피 복호화부(510)로부터 추출된 인트라 예측모드에 대한 신택스 요소로부터 복수의 인트라 예측모드 중 현재블록의 인트라 예측모드를 결정하고, 인트라 예측모드에 따라 현재블록 주변의 참조 픽셀들을 이용하여 현재블록을 예측한다.The intra prediction unit (542) determines the intra prediction mode of the current block among a plurality of intra prediction modes from the syntax elements for the intra prediction mode extracted from the entropy decoding unit (510), and predicts the current block using reference pixels around the current block according to the intra prediction mode.

인터 예측부(544)는 엔트로피 복호화부(510)로부터 추출된 인터 예측모드에 대한 신택스 요소를 이용하여 현재블록의 움직임벡터와 그 움직임벡터가 참조하는 참조픽처를 결정하고, 움직임벡터와 참조픽처를 이용하여 현재블록을 예측한다.The inter prediction unit (544) uses the syntax elements for the inter prediction mode extracted from the entropy decoding unit (510) to determine the motion vector of the current block and the reference picture referenced by the motion vector, and predicts the current block using the motion vector and the reference picture.

가산기(550)는 역변환부(530)로부터 출력되는 잔차블록과 인터 예측부(544) 또는 인트라 예측부(542)로부터 출력되는 예측블록을 가산하여 현재블록을 복원한다. 복원된 현재블록 내의 픽셀들은 이후에 복호화할 블록을 인트라 예측할 때의 참조픽셀들로서 활용된다.An adder (550) adds the residual block output from the inverse transform unit (530) and the predicted block output from the inter prediction unit (544) or the intra prediction unit (542) to restore the current block. The pixels within the restored current block are used as reference pixels when intra-predicting a block to be decoded later.

루프 필터부(560)는 인루프 필터로서 디블록킹 필터(562), SAO 필터(564) 및 ALF(566)를 포함할 수 있다. 디블록킹 필터(562)는 블록 단위의 복호화로 인해 발생하는 블록킹 현상(blocking artifact)을 제거하기 위해, 복원된 블록 간의 경계를 디블록킹 필터링한다. SAO 필터(564) 및 ALF(566)는 손실 부호화(lossy coding)로 인해 발생하는 복원된 픽셀들과 원본 픽셀들 간의 차이를 보상하기 위해, 디블록킹 필터링 이후의 복원된 블록에 대해 추가적인 필터링을 수행한다. ALF의 필터 계수는 비스트림으로부터 복호한 필터 계수에 대한 정보를 이용하여 결정된다. The loop filter unit (560) may include a deblocking filter (562), an SAO filter (564), and an ALF (566) as in-loop filters. The deblocking filter (562) deblocks the boundaries between restored blocks to remove blocking artifacts caused by block-by-block decoding. The SAO filter (564) and the ALF (566) perform additional filtering on restored blocks after deblocking filtering to compensate for differences between restored pixels and original pixels caused by lossy coding. The filter coefficients of the ALF are determined using information about filter coefficients decoded from the non-stream.

디블록킹 필터(562), SAO 필터(564) 및 ALF(566)를 통해 필터링된 복원블록은 메모리(570)에 저장된다. 한 픽처 내의 모든 블록들이 복원되면, 복원된 픽처는 이후에 부호화하고자 하는 픽처 내의 블록을 인터 예측하기 위한 참조픽처로 사용된다.The restored blocks filtered through the deblocking filter (562), SAO filter (564), and ALF (566) are stored in the memory (570). When all blocks within a picture are restored, the restored picture is used as a reference picture for inter-predicting blocks within a picture to be encoded later.

이하에서는 전술한 영상 부호화 장치 또는 영상 복호화 장치에 의해 수행되는 개선된 코딩 툴이 개시된다. 이하의 실시예들은 영상 부호화 장치(video encoding apparatus) 내 인트라 예측부(122)에 의해 수행될 수 있다. 또한, 이하의 실시예들은 영상 복호화 장치(video decoding apparatus) 내 인트라 예측부(542)에 의해 수행될 수 있다. 본 개시에서, 영상 처리 장치는 영상 부호화 장치 또는 영상 복호화 장치 중 적어도 하나를 가리킨다.Hereinafter, an improved coding tool performed by the aforementioned video encoding device or video decoding device is disclosed. The following embodiments may be performed by the intra prediction unit (122) within the video encoding device. Additionally, the following embodiments may be performed by the intra prediction unit (542) within the video decoding device. In the present disclosure, the video processing device refers to at least one of the video encoding device or the video decoding device.

본 개시는 행렬 기반 인트라 예측(Matrix-based Intra Prediction, MIP) 모드에 관한 것이다. MIP 모드는 현재블록의 주변 참조 템플릿(neighbor reference template)에 참조픽셀들에 가중치 행렬(weight matrix)을 곱함으로써 현재블록의 예측샘플들을 유도하는 모드이다. The present disclosure relates to a matrix-based intra prediction (MIP) mode. The MIP mode is a mode that derives prediction samples of a current block by multiplying reference pixels in a neighboring reference template of the current block by a weight matrix.

MIP 모드에서 현재블록의 예측샘플을 유도하기 위한 과정은 수학식 1과 같이 표현될 수 있다. The process for deriving a prediction sample of the current block in MIP mode can be expressed as in mathematical expression 1.

수학식 1에서, P(x, y)는 현재블록의 예측샘플(prediction sample)을 나타내고, x 및 y는 현재블록 내 예측샘플의 위치를 나타내고, r(k)는 현재블록의 k 번째 참조픽셀을 나타내고, F(x, y, k)는 예측샘플 (x, y)에 대응되는 행렬 가중치들을 나타낸다. k는 현재블록의 참조 템플릿 내 참조픽셀의 인덱스를 나타낸다. 현재블록의 예측샘플의 값은 현재블록의 가중치 행렬과 참조픽셀 간 곱셈에 의해 결정된다. 현재블록의 예측블록의 사이즈는 현재블록의 사이즈와 같다.In Equation 1, P(x, y) represents a prediction sample of the current block, x and y represent the positions of the prediction samples within the current block, r(k) represents the kth reference pixel of the current block, and F(x, y, k) represents the matrix weights corresponding to the prediction sample (x, y). k represents the index of the reference pixel within the reference template of the current block. The value of the prediction sample of the current block is determined by the multiplication between the weight matrix of the current block and the reference pixel. The size of the prediction block of the current block is the same as the size of the current block.

MIP 모드는 현재블록의 사이즈에 기초하여 활성화 또는 비활성화될 수 있다. MIP 모드는 너비와 높이가 각각 기 정의된 값 이하인 블록들에 대해 활성화될 수 있다. 예를 들면, 기 정의된 값이 32일 수 있다. MIP 모드는 너비와 높이가 모두 최대 32인 블록 크기에 대해 이용될 수 있다. 기 정의된 값은 32 외 다른 값들일 수도 있다. 반면, MIP 모드는 특정 사이즈의 블록들에 대해 활성화되지 않을 수 있다. 예를 들면, 너비x높이가 4x32, 32x4, 8x32, 32x8인 블록들에 대해, MIP 모드는 이용 불가능할 수 있다.MIP mode can be enabled or disabled based on the size of the current block. MIP mode can be enabled for blocks whose width and height are each less than or equal to a predefined value. For example, the predefined value can be 32. MIP mode can be used for block sizes where both width and height are at most 32. The predefined value can be other values besides 32. On the other hand, MIP mode may not be enabled for blocks of certain sizes. For example, MIP mode may not be enabled for blocks whose width x height are 4x32, 32x4, 8x32, or 32x8.

MIP 모드는 현재블록의 인트라 예측모드에 기초하여 활성화 또는 비활성화 될 수 있다. 예를 들면, 현재블록의 인트라 예측모드의 번호가 0, 1 또는 (2 + 2×k)일 때, MIP 모드가 활성화될 수 있다. 여기서, k는 0을 포함하는 정수이다. 다른 예로서, 현재블록의 인트라 예측모드의 번호가 0, 1 또는 (2 + 4×k)일 때, MIP 모드가 활성화될 수 있다. The MIP mode can be activated or deactivated based on the intra prediction mode of the current block. For example, the MIP mode can be activated when the intra prediction mode number of the current block is 0, 1, or (2 + 2 × k), where k is an integer including 0. As another example, the MIP mode can be activated when the intra prediction mode number of the current block is 0, 1, or (2 + 4 × k).

MIP 모드는 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 활성화 또는 비활성화될 수 있다. MIP 모드는 기 설정된 크기 이하의 블록 및 기 설정된 인트라 예측모드들에 대해 활성화될 수 있다. 일 예로서, 현재블록의 너비 및 높이가 16 이하이고, 현재블록의 인트라 예측모드의 번호가 0, 1 또는 (2 + 2×k)일 때, MIP 모드가 활성화될 수 있다. 여기서, k는 0을 포함하는 정수이다. 다른 예로서, 현재블록의 너비 및 높이가 32 이하이고, 현재블록의 인트라 예측모드의 번호가 0, 1 또는 (2 + 4×k)일 때, MIP 모드가 활성화될 수 있다. 여기서, k는 0을 포함하는 정수이다. The MIP mode can be activated or deactivated based on at least one of the size of the current block or the intra prediction mode. The MIP mode can be activated for blocks smaller than or equal to a preset size and for preset intra prediction modes. For example, when the width and height of the current block are 16 or less and the number of the intra prediction mode of the current block is 0, 1, or (2 + 2 × k), the MIP mode can be activated. Here, k is an integer including 0. For another example, when the width and height of the current block are 32 or less and the number of the intra prediction mode of the current block is 0, 1, or (2 + 4 × k), the MIP mode can be activated. Here, k is an integer including 0.

현재블록의 너비 또는 높이가 16보다 클 때, MIP 모드를 이용하여 16x16 예측블록이 생성되고, 16x16 예측블록에 대해 보간 또는 이중선형보간(bilinear interpolation)을 수행하여 현재블록의 예측블록이 생성될 수 있다.When the width or height of the current block is greater than 16, a 16x16 prediction block is generated using the MIP mode, and interpolation or bilinear interpolation is performed on the 16x16 prediction block to generate a prediction block of the current block.

MIP 모드가 활성화되면, 현재블록의 인트라 예측모드는 MIP 모드로 대체된다. 자세하게, 현재블록의 기존의 인트라 예측모드 또는 유도된 인트라 예측모드는 MIP 모드에 의해 대체될 수 있다. 일부 방향성 인트라 예측모드들은 MIP 모드로 대체될 수 있다. 현재블록의 인트라 예측모드 및 MIP 모드가 활성화되는지 여부가 결정되면, 현재블록은 추가적인 시그널링 없이 MIP 모드에 의해 예측된다.When MIP mode is enabled, the intra prediction mode of the current block is replaced with the MIP mode. Specifically, the existing intra prediction mode or the derived intra prediction mode of the current block can be replaced with the MIP mode. Some directional intra prediction modes can be replaced with the MIP mode. Once it is determined whether the intra prediction mode and MIP mode of the current block are enabled, the current block is predicted with the MIP mode without additional signaling.

특히, 본 개시는 다양한 참조픽셀들을 이용하여 MIP 예측을 수행하는 비디오 코딩 방법 및 장치를 제공한다. 본 개시에 따르면, 참조픽셀들의 모양, 위치 및 특성을 제한하지 않기 위해, 다양한 참조픽셀들이 현재블록의 MIP 예측을 위해 이용된다. 본 개시에 따르면, 인트라 예측모드의 정확도가 개선되고, 부호화 및 복호화 효율이 높아질 수 있다. 나아가, 본 개시에 따른 MIP 예측에 오프셋이 이용될 수 있다.In particular, the present disclosure provides a video coding method and apparatus for performing MIP prediction using various reference pixels. According to the present disclosure, various reference pixels are used for MIP prediction of a current block without limiting the shape, location, and characteristics of the reference pixels. According to the present disclosure, the accuracy of the intra prediction mode can be improved, and encoding and decoding efficiency can be increased. Furthermore, an offset can be used for MIP prediction according to the present disclosure.

도 6은 본 개시의 일 실시예에 따른 행렬기반 인트라 예측 방법의 순서도이다.FIG. 6 is a flowchart of a matrix-based intra prediction method according to one embodiment of the present disclosure.

단계 S610에서, 영상 처리 장치는 현재블록의 참조 템플릿을 결정한다.In step S610, the image processing device determines a reference template of the current block.

참조 템플릿은 현재블록보다 먼저 부호화되거나 복호화된 픽셀들의 집합을 가리킨다. A reference template refers to a set of pixels encoded or decoded before the current block.

참조 템플릿은 현재블록에 인접한 픽셀들을 포함할 수 있다. 예를 들면, 참조 템플릿은 현재블록에 인접한 적어도 하나의 참조라인을 포함할 수 있다. The reference template may include pixels adjacent to the current block. For example, the reference template may include at least one reference line adjacent to the current block.

참조 템플릿은 현재블록에 인접하지 않은 픽셀들을 포함할 수 있다. 예를 들면, 참조 템플릿은 현재블록에 인접하지 않은 참조블록들을 포함할 수 있다.A reference template may contain pixels that are not adjacent to the current block. For example, a reference template may contain reference blocks that are not adjacent to the current block.

참조 템플릿은 현재블록의 주변블록의 움직임 정보에 의해 지시되는 참조영역을 포함할 수 있다. 움직임 정보는 모션 벡터 또는 블록 벡터로 지칭될 수 있다.A reference template may include a reference region indicated by motion information of surrounding blocks of the current block. The motion information may be referred to as a motion vector or a block vector.

참조 템플릿은 영상 부호화 장치와 영상 복호화 장치 간에 미리 규약될 수 있다. A reference template can be pre-defined between a video encoding device and a video decoding device.

또는, 참조 템플릿은 현재블록의 인트라 예측모드 또는 시그널링 정보(signaling information) 중 어느 하나에 기초하여 결정될 수 있다. 시그널링 정보는 참조 템플릿의 모양, 위치, 사이즈 등에 대한 정보를 포함할 수 있다. 예를 들면, 시그널링 정보는 현재블록에 인접한 픽셀들을 포함하는 참조 템플릿, 인접하지 않은 픽셀들을 포함하는 참조 템플릿, 또는 주변블록의 움직임 정보를 이용하여 지시되는 참조 템플릿을 지시하기 위한 정보를 포함할 수 있다. Alternatively, the reference template may be determined based on either the intra prediction mode of the current block or signaling information. The signaling information may include information about the shape, position, size, etc. of the reference template. For example, the signaling information may include information for indicating a reference template including pixels adjacent to the current block, a reference template including non-adjacent pixels, or a reference template indicated using motion information of a neighboring block.

참조 템플릿의 사이즈는 기 정의될 수 있다. 또는, 참조 템플릿의 사이즈는 현재블록의 사이즈 또는 가중치 행렬의 사이즈 중 적어도 하나에 기초하여 결정될 수 있다. 참조 템플릿의 사이즈는 인트라 예측모드에 더 기초하여 결정될 수 있다.The size of the reference template may be predefined. Alternatively, the size of the reference template may be determined based on at least one of the size of the current block or the size of the weight matrix. The size of the reference template may further be determined based on the intra prediction mode.

참조 템플릿 내 픽셀들 중 적어도 하나는 패딩(padding) 또는 보간(interpolation) 중 적어도 하나를 이용하여 다른 픽셀로부터 생성된 픽셀일 수 있다.At least one of the pixels in the reference template may be a pixel generated from another pixel using at least one of padding or interpolation.

영상 처리 장치는 소정 모양의 단위로 참조 템플릿 내 픽셀들의 가중합을 수행함으로써, 참조 템플릿을 조정할 수 있다.The image processing device can adjust the reference template by performing a weighted sum of pixels within the reference template in units of a predetermined shape.

참조 템플릿에 대한 패딩, 보간, 조정 등을 수행할지 여부에 대한 정보는 영상 부호화 장치 및 영상 복호화 장치 간에 규약되거나 시그널링될 수 있다. Information about whether to perform padding, interpolation, adjustment, etc. on the reference template may be agreed upon or signaled between the video encoding device and the video decoding device.

단계 S620에서, 영상 처리 장치는 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬을 결정한다. 나아가, 영상 처리 장치는 행렬기반 인트라예측을 위한 오프셋을 결정할 수 있다.In step S620, the image processing device determines a weight matrix for matrix-based intra prediction of the current block. Furthermore, the image processing device may determine an offset for matrix-based intra prediction.

가중치 행렬은 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 유도될 수 있다. 일 예로서, 기 정의된 가중치 행렬들로부터 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 현재블록의 가중치 행렬이 선택될 수 있다. 다른 예로서, 현재블록의 가중치 행렬의 각 요소는 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 유도될 수 있다.The weight matrix may be derived based on at least one of the size of the current block or the intra prediction mode. For example, the weight matrix of the current block may be selected from predefined weight matrices based on at least one of the size of the current block or the intra prediction mode. As another example, each element of the weight matrix of the current block may be derived based on at least one of the size of the current block or the intra prediction mode.

또는, 가중치 행렬은 영상 부호화 장치 및 영상 복호화 장치 간 시그널링 정보에 기초하여 결정될 수 있다. 기 정의된 가중치 행렬들로부터 현재블록의 가중치 행렬을 지시하기 위한 정보가 시그널링될 수 있다.Alternatively, the weight matrix may be determined based on signaling information between the image encoding device and the image decoding device. Information for indicating the weight matrix of the current block may be signaled from predefined weight matrices.

오프셋은 행렬곱셈의 결과를 조정하기 위한 바이어스이다. 오프셋은 0 또는 실수값일 수 있다. 오프셋은 현재블록의 예측샘플들의 위치에 상관없이 동일한 값을 가질 수 있다. 또는, 오프셋은 현재블록의 예측샘플들의 위치마다 다른 값을 가질 수 있다. The offset is a bias used to adjust the result of matrix multiplication. The offset can be 0 or a real number. The offset can have the same value regardless of the position of the prediction samples in the current block. Alternatively, the offset can have different values for each position of the prediction samples in the current block.

오프셋은 영상 부호화 장치 및 영상 복호화 장치 간 시그널링 정보에 기초하여 기 정의된 값들로부터 선택된 값일 수 있다. 또는, 오프셋은 현재블록 또는 주변블록의 정보에 기초하여 유도될 수 있다.The offset may be a value selected from predefined values based on signaling information between the video encoding device and the video decoding device. Alternatively, the offset may be derived based on information of the current block or neighboring blocks.

단계 S630에서, 영상 처리 장치는 현재블록의 참조 템플릿 및 가중치 행렬에 기초하여 현재블록의 예측블록을 생성한다. 현재블록의 예측블록을 생성하는 데 오프셋이 더 이용될 수 있다.In step S630, the image processing device generates a prediction block of the current block based on the reference template and weight matrix of the current block. An offset may further be used to generate the prediction block of the current block.

현재블록의 예측블록을 생성하기 위한 과정은 수학식 2와 같이 표현될 수 있다. The process for generating a prediction block of the current block can be expressed as in mathematical expression 2.

수학식 2에서, b(k)는 k 번째 참조픽셀에 대응되는 오프셋을 나타낸다. P(x, y)는 현재블록의 예측샘플(prediction sample)을 나타내고, x 및 y는 현재블록 내 예측샘플의 위치를 나타내고, r(k)는 현재블록의 k 번째 참조픽셀을 나타내고, F(x, y, k)는 예측샘플 (x, y)에 대응되는 행렬 가중치들을 나타낸다. k는 현재블록의 참조 템플릿 내 참조픽셀의 인덱스를 나타낸다. 현재블록의 예측샘플의 값은 현재블록의 가중치 행렬과 참조픽셀 간 곱셈에 의해 결정된다. 현재블록의 예측블록의 사이즈는 현재블록의 사이즈와 같다.In Equation 2, b(k) represents an offset corresponding to the k-th reference pixel. P(x, y) represents a prediction sample of the current block, x and y represent the positions of the prediction sample within the current block, r(k) represents the k-th reference pixel of the current block, and F(x, y, k) represents the matrix weights corresponding to the prediction sample (x, y). k represents the index of the reference pixel within the reference template of the current block. The value of the prediction sample of the current block is determined by the multiplication of the weight matrix of the current block and the reference pixel. The size of the prediction block of the current block is the same as the size of the current block.

본 개시의 다른 실시예에 따르면, 참조 템플릿의 축소, 행렬곱 및 업샘플링을 통해 현재블록의 예측블록이 생성된다.According to another embodiment of the present disclosure, a prediction block of a current block is generated through reduction, matrix multiplication, and upsampling of a reference template.

참조픽셀들이 유도되고, 참조픽셀들이 MIP 예측에 이용될 수 있다. 참조픽셀의 유도는 참조 템플릿의 축소(reduction), 행렬 연산, 또는 업샘플링(up-sampling) 등을 포함할 수 있다.Reference pixels are derived and can be used for MIP prediction. Deriving the reference pixels may include reduction of the reference template, matrix operations, or upsampling.

먼저, 참조 템플릿 내 픽셀들에 대해 평균화 또는 샘플링 등을 수행함으로써, 참조 템플릿이 축소된다. 축소된 참조 템플릿은 벡터 또는 행렬 형태일 수 있다. 여기서, 평균화가 적용되는 픽셀들의 개수, 또는 샘플링 비율 등은 영상 부호화 장치 및 영상 복호화 장치 간에 규약될 수 있다.First, the reference template is reduced by performing averaging or sampling on the pixels within the reference template. The reduced reference template may be in the form of a vector or matrix. Here, the number of pixels to which averaging is applied, the sampling rate, etc., may be agreed upon between the image encoding device and the image decoding device.

이후, 축소된 참조 템플릿에 기 정의된 행렬들 중 하나를 곱함으로써 경계 벡터(boundary vector)가 유도된다. 연산에 이용되는 행렬은 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 기 정의된 행렬들로부터 선택될 수 있다. Thereafter, a boundary vector is derived by multiplying the reduced reference template by one of the predefined matrices. The matrix used in the operation may be selected from the predefined matrices based on at least one of the size of the current block or the intra prediction mode.

경계 벡터를 업샘플링함으로써, 현재블록의 예측블록이 생성된다. 예를 들면, 경계 벡터의 요소들을 보간함으로써, 현재블록의 예측블록이 유도될 수 있다.By upsampling the boundary vector, a predicted block of the current block is generated. For example, a predicted block of the current block can be derived by interpolating elements of the boundary vector.

참조 템플릿의 축소 및 업샘플링에 기반한 현재블록의 예측블록의 생성은 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나가 기 정의된 값인 것에 기초하여 수행될 수 있다. 다시 말하면, 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나가 소정의 범위에 포함될 때, 참조 템플릿의 축소, 행렬곱 및 업샘플링으로부터 현재블록의 예측블록이 생성될 수 있다.The generation of a prediction block of the current block based on the reduction and upsampling of the reference template can be performed based on at least one of the size or the intra prediction mode of the current block being a predefined value. In other words, when at least one of the size or the intra prediction mode of the current block falls within a predetermined range, the prediction block of the current block can be generated from the reduction, matrix multiplication, and upsampling of the reference template.

또는, 참조 템플릿의 축소 및 업샘플링에 기반한 현재블록의 예측블록의 생성을 수행할지 여부는 시그널링 정보에 기초하여 결정될 수 있다.Alternatively, whether to perform generation of a prediction block of the current block based on reduction and upsampling of the reference template can be determined based on signaling information.

이처럼, 영상 처리 장치는 MIP 예측을 위한 다양한 참조 템플릿을 이용함으로써, 코딩 효율 및 예측 정확도를 개선할 수 있다.In this way, the image processing device can improve coding efficiency and prediction accuracy by using various reference templates for MIP prediction.

도 7a, 도 7b 및 도 7c는 본 개시의 일 실시예에 따른 현재블록에 인접한 참조 템플릿을 설명하기 위한 도면이다.FIGS. 7A, 7B, and 7C are diagrams illustrating reference templates adjacent to a current block according to one embodiment of the present disclosure.

도 7a, 도 7b 및 도 7c를 참조하면, 참조 템플릿은 L자 참조템플릿(L-shaped reference template), 좌측 참조템플릿 또는 상단 참조템플릿 중 어느 하나일 수 있다. Referring to FIGS. 7a, 7b and 7c, the reference template may be any one of an L-shaped reference template, a left reference template or an upper reference template.

다른 실시예에서, 다양한 모양의 참조 템플릿들이 이용될 수 있다.In other embodiments, reference templates of various shapes may be used.

도 7a에는, L자 참조템플릿(L-shaped reference template)이 도시된다.In Fig. 7a, an L-shaped reference template is illustrated.

L자 참조템플릿은 현재블록에 인접한 적어도 하나의 참조라인을 포함한다. 자세하게, L자 참조템플릿은 적어도 하나의 좌측 참조라인, 적어도 하나의 상단 참조라인 및 적어도 하나의 좌측상단 참조픽셀을 포함한다.An L-shaped reference template includes at least one reference line adjacent to the current block. Specifically, the L-shaped reference template includes at least one left reference line, at least one top reference line, and at least one top-left reference pixel.

다시 말하면, L자 참조템플릿은 현재블록의 좌측 및 상단의 주변픽셀들을 포함할 수 있다. 자세하게, L자 참조템플릿은 현재블록의 좌측하단 주변픽셀들, 좌측 주변픽셀들, 좌측상단 주변픽셀들, 상단 주변픽셀들 및 우측상단 주변픽셀들을 포함할 수 있다.In other words, the L-shaped reference template may include the left and top surrounding pixels of the current block. Specifically, the L-shaped reference template may include the bottom-left surrounding pixels, the left surrounding pixels, the top-left surrounding pixels, the top-right surrounding pixels, and the top-right surrounding pixels of the current block.

L자 참조템플릿의 크기 또는 면적은 (CW×W×L1)+(CH×H×L2)+(L1×L2)로 표현될 수 있다. 여기서, W는 현재블록의 너비이고, H는 현재블록의 높이이고, CW 및 CH는 각각 현재블록의 너비의 높이에 대한 가중치들이다. L1은 상단 참조라인의 개수이고, L2는 좌측 참조라인의 개수이다. CW, CH, L1 및 L2는 양의 정수이다.The size or area of an L-shaped reference template can be expressed as (C W ×W × L1)+(C H ×H × L2)+(L1 × L2). Here, W is the width of the current block, H is the height of the current block, and C W and C H are weights for the height of the width of the current block, respectively. L1 is the number of upper reference lines, and L2 is the number of left reference lines. C W , C H , L1 , and L2 are positive integers.

예를 들면, 참조 템플릿은 현재블록의 좌측에 이웃하는 재구성된 4 라인의 샘플(L2 = 4), 및 현재블록의 상단에 이웃하는 재구성된 4 라인의 샘플(L1 = 4)을 포함할 수 있다. 참조 템플릿의 너비와 높이는 각각 2W와 2H의 값을 가질 수 있다.For example, a reference template may include four reconstructed samples of the left neighboring line of the current block (L2 = 4) and four reconstructed samples of the top neighboring line of the current block (L1 = 4). The width and height of the reference template may have values of 2W and 2H, respectively.

도 7b에는, 좌측 참조템플릿이 도시된다.In Fig. 7b, the left reference template is shown.

좌측 참조템플릿은 현재블록에 인접한 적어도 하나의 좌측 참조라인을 포함한다. 다시 말하면, 좌측 참조템플릿은 현재블록의 좌측 주변픽셀들을 포함한다. 자세하게, 좌측 참조템플릿은 현재블록의 좌측하단 주변픽셀들 및 좌측 주변픽셀들을 포함한다. 나아가, 좌측 참조템플릿은 현재블록의 좌측상단 주변픽셀들을 포함할 수 있다.The left reference template includes at least one left reference line adjacent to the current block. In other words, the left reference template includes the left surrounding pixels of the current block. Specifically, the left reference template includes the lower left surrounding pixels and the left surrounding pixels of the current block. Furthermore, the left reference template may include the upper left surrounding pixels of the current block.

좌측 참조템플릿의 크기 또는 면적은 (CH×H×L3)로 표현될 수 있다. L3는 좌측 참조라인의 개수를 나타낸다.The size or area of the left reference template can be expressed as (C H × H × L3), where L3 represents the number of left reference lines.

도 7c에는, 상단 참조템플릿이 도시된다.In Fig. 7c, the upper reference template is shown.

상단 참조템플릿은 현재블록에 인접한 적어도 하나의 상단 참조라인을 포함한다. 다시 말하면, 상단 참조템플릿은 현재블록의 상단 주변픽셀들을 포함한다. 자세하게, 상단 참조템플릿은 현재블록의 상단 주변픽셀들 및 우측상단 주변픽셀들을 포함한다. 나아가, 상단 참조템플릿은 현재블록의 좌측상단 주변픽셀들을 포함할 수 있다.The upper reference template includes at least one upper reference line adjacent to the current block. In other words, the upper reference template includes the upper peripheral pixels of the current block. Specifically, the upper reference template includes the upper peripheral pixels and the upper-right peripheral pixels of the current block. Furthermore, the upper reference template may include the upper-left peripheral pixels of the current block.

상단 참조템플릿의 크기 또는 면적은 (CW×W×L4)로 표현될 수 있다. L4는 상단 참조라인의 개수를 나타낸다.The size or area of the upper reference template can be expressed as (C W ×W × L4), where L4 represents the number of upper reference lines.

도 7a, 도 7b 및 도 7c에서, 참조 템플릿의 사이즈, 즉 CW, CH, L1, L2, L3 및 L4는 다양한 방식들에 의해 결정될 수 있다.In FIGS. 7a, 7b and 7c, the sizes of the reference templates, i.e., C W , C H , L1, L2, L3 and L4, can be determined in various ways.

CW, CH, L1, L2, L3 및 L4는 영상 부호화 장치 및 영상 복호화 장치 간에 미리 규약될 수 있다. C W , C H , L1, L2, L3 and L4 can be pre-defined between the image encoding device and the image decoding device.

일 예로서, CW 및 CH는 2일 수 있고, L1, L2, L3 및 L4는 4일 수 있다. As an example, C W and C H can be 2, and L1, L2, L3 and L4 can be 4.

다른 예로서, CW 및 CH는 2일 수 있고, L1, L2, L3 및 L4는 2일 수 있다. As another example, C W and C H can be 2, and L1, L2, L3 and L4 can be 2.

다른 예로서, CW 및 CH는 2일 수 있고, L1, L2, L3 및 L4는 1일 수 있다.As another example, C W and C H can be 2, and L1, L2, L3, and L4 can be 1.

다른 예로서, CW 및 CH는 1일 수 있고, L1, L2, L3 및 L4는 1일 수 있다.As another example, C W and C H can be 1, and L1, L2, L3, and L4 can be 1.

또는, CW, CH, L1, L2, L3 및 L4는 현재블록의 사이즈에 기초하여 결정될 수 있다. L1, L2, L3 및 L4는 기 정의된 값들로부터 현재블록의 사이즈에 기초하여 선택될 수 있다. 여기서, 기 정의된 값들은 1, 2, 또는 4 등일 수 있다.Alternatively, C W , C H , L1, L2, L3 and L4 can be determined based on the size of the current block. L1, L2, L3 and L4 can be selected from predefined values based on the size of the current block. Here, the predefined values can be 1, 2, or 4, etc.

일 예로서, 현재블록의 사이즈가 16x16보다 작거나 같을 때, CW 및 CH는 2이고, L1, L2, L3 및 L4는 2일 수 있다.As an example, when the size of the current block is less than or equal to 16x16, C W and C H can be 2, and L1, L2, L3, and L4 can be 2.

다른 예로서, 현재블록의 너비 및 높이가 16x16보다 크고, 현재블록의 너비 및 높이가 32x32보다 작거나 같을 때, CW 및 CH는 2이고, L1, L2, L3 및 L4는 1일 수 있다.As another example, when the width and height of the current block are greater than 16x16 and the width and height of the current block are less than or equal to 32x32, C W and C H can be 2, and L1, L2, L3, and L4 can be 1.

또는, CW, CH, L1, L2, L3 및 L4는 현재블록의 사이즈 또는 가중치 행렬의 사이즈 중 적어도 하나에 기초하여 결정될 수 있다. 좌측 참조템플릿에서, 가중치 행렬의 사이즈가 MxN일 때, 좌측 참조템플릿의 높이는 N이고, CH는 N을 H로 나눈 값일 수 있다. Alternatively, C W , C H , L1, L2, L3 and L4 may be determined based on at least one of the size of the current block or the size of the weight matrix. In the left reference template, when the size of the weight matrix is MxN, the height of the left reference template is N, and C H may be a value obtained by dividing N by H.

일 예로서, 현재블록의 사이즈가 16x16보다 작거나 같을 때, L3는2일 수 있다. As an example, when the current block size is less than or equal to 16x16, L3 can be 2.

또는, CW, CH, L1, L2, L3 및 L4는 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나에 기초하여 결정될 수 있다.Alternatively, C W , C H , L1, L2, L3 and L4 may be determined based on at least one of the size of the current block or the intra prediction mode.

일 예로서, 현재블록의 사이즈가 16x16보다 작거나 같고, 현재블록의 인트라 예측모드가 모드번호 0, 1 또는 (2 + 2×k)에 포함될 때, CW 및 CH는 2이고, L1, L2, L3 및 L4는 2일 수 있다. 여기서, k는 0 또는 양의 정수이다.As an example, when the size of the current block is less than or equal to 16x16 and the intra prediction mode of the current block is included in mode number 0, 1, or (2 + 2×k), C W and C H may be 2, and L1, L2, L3, and L4 may be 2. Here, k is 0 or a positive integer.

다른 예로서, 현재블록의 너비 및 높이가 16x16보다 크고, 현재블록의 너비 및 높이가 32x32보다 작거나 같고, 현재블록의 인트라 예측모드가 모드번호 0, 1 또는 (2 + 4×k)에 포함될 때, CW 및 CH는 2이고, L1, L2, L3 및 L4는 1일 수 있다. 여기서, k는 0 또는 양의 정수이다.As another example, when the width and height of the current block are greater than 16x16, the width and height of the current block are less than or equal to 32x32, and the intra prediction mode of the current block is included in mode number 0, 1, or (2 + 4×k), C W and C H may be 2, and L1, L2, L3, and L4 may be 1, where k is 0 or a positive integer.

또는, CW 및 CH는 인트라 예측모드에 기초하여 결정될 수 있다. 예를 들면, 18번 내지 50번의 인트라 예측모드들에 대해, CW 및 CH는 1로 설정될 수 있다. 나머지 인트라 예측모드들에 대해, CW 및 CH는 2로 설정될 수 있다.Alternatively, C W and C H can be determined based on the intra prediction mode. For example, for intra prediction modes 18 to 50, C W and C H can be set to 1. For the remaining intra prediction modes, C W and C H can be set to 2.

한편, 현재블록에 인접한 참조 템플릿은 암시적인 방법 또는 명시적인 방법 중 어느 하나에 의해 결정될 수 있다.Meanwhile, the reference template adjacent to the current block can be determined either implicitly or explicitly.

암시적 방법으로서, 참조 템플릿은 MIP 모드에 의해 대체되는 인트라 예측모드에 기초하여 결정될 수 있다. 다양한 참조 템플릿들이 인트라 예측모드들에 대해 기 정의되거나 매핑될 수 있다. 인트라 예측모드가 기 정의된 값이거나 기 정의된 범위에 포함되는 경우, 특정 참조 템플릿이 MIP 예측을 위해 이용될 수 있다. 참조 템플릿과 인트라 예측모드 간 관계는 영상 부호화 장치 및 영상 복호화 장치 간에 규약될 수 있다.As an implicit method, a reference template can be determined based on an intra prediction mode that is replaced by a MIP mode. Various reference templates can be predefined or mapped to intra prediction modes. If an intra prediction mode is a predefined value or falls within a predefined range, a specific reference template can be used for MIP prediction. The relationship between a reference template and an intra prediction mode can be agreed upon between a video encoding device and a video decoding device.

일 예로서, 현재블록의 인트라 예측모드의 번호가 수직 방향의 인트라 예측모드를 가리키는 50번일 때, 상단 참조템플릿이 MIP 예측을 위해 이용될 수 있다. As an example, when the number of the intra prediction mode of the current block is 50, which indicates the intra prediction mode in the vertical direction, the upper reference template can be used for MIP prediction.

다른 예로서, 현재블록의 인트라 예측모드의 번호가 수평 방향의 인트라 예측모드를 가리키는 18번일 때, 좌측 참조템플릿이 MIP 예측을 위해 이용될 수 있다. As another example, when the number of the intra prediction mode of the current block is 18, which indicates the intra prediction mode in the horizontal direction, the left reference template can be used for MIP prediction.

다른 예로서, 현재블록의 인트라 예측모드의 번호가 대각선 방향의 인트라 예측모드를 가리키는 34번일 때, L자 참조템플릿이 MIP 예측을 위해 이용될 수 있다.As another example, when the number of the intra prediction mode of the current block is 34, which indicates a diagonal intra prediction mode, the L-shaped reference template can be used for MIP prediction.

다른 예로서, 현재블록의 인트라 예측모드의 번호가 대각선 방향의 인트라 예측모드를 가리키는 45번일 때, 상단 참조템플릿 전체와 좌측 참조템플릿의 상단 일부가 이용될 수 있다.As another example, when the number of the intra prediction mode of the current block is 45, which indicates a diagonal intra prediction mode, the entire upper reference template and the upper part of the left reference template can be used.

다른 암시적인 방법으로서, 참조 템플릿은 인트라 예측모드 외에 다른 정보에 기반하여 결정될 수도 있다.As another implicit method, the reference template may be determined based on information other than the intra prediction mode.

명시적 방법으로서, 참조 템플릿은 영상 부호화 장치 및 영상 복호화 장치 간 시그널링 정보에 기초하여 결정될 수 있다. As an explicit method, the reference template can be determined based on signaling information between the video encoding device and the video decoding device.

일 예로서, 시그널링 정보는 기 정의된 참조 템플릿들로부터 현재블록의 참조 템플릿을 식별하기 위한 인덱스 또는 플래그를 포함할 수 있다. 현재블록의 참조 템플릿은 기 정의된 참조 템플릿들로부터 상기 시그널링 정보에 기초하여 선택될 수 있다. As an example, the signaling information may include an index or flag for identifying the reference template of the current block from among predefined reference templates. The reference template of the current block may be selected from among the predefined reference templates based on the signaling information.

도 8은 본 개시의 일 실시예에 따른 현재블록에 비인접한 참조 템플릿을 설명하기 위한 도면이다.FIG. 8 is a drawing for explaining a reference template that is not adjacent to a current block according to one embodiment of the present disclosure.

영상 부호화 장치 및 영상 복호화 장치 간에 현재블록의 비인접(non-adjacent) 주변블록들이 규약될 수 있다. Non-adjacent surrounding blocks of the current block can be specified between the video encoding device and the video decoding device.

도 8에는, 현재블록의 비인접한 주변블록들의 예시가 도시된다. 현재블록의 MIP 예측을 위해 14번 내지 31번 블록들 중 적어도 하나가 참조 템플릿으로서 이용될 수 있다. Figure 8 illustrates examples of non-adjacent neighboring blocks of the current block. At least one of blocks 14 to 31 may be used as a reference template for MIP prediction of the current block.

각 픽셀의 번호는 대응되는 픽셀이 포함된 비인접 주변블록을 나타낸다. 예를 들어, 14번 픽셀이 포함된 비인접 주변블록은 14번 블록으로 지칭될 수 있다. 14번 블록에 포함된 픽셀들은 현재블록의 참조픽셀들로 지칭된다.The number of each pixel represents the non-adjacent neighboring block containing the corresponding pixel. For example, the non-adjacent neighboring block containing pixel 14 can be referred to as block 14. The pixels contained in block 14 are referred to as reference pixels of the current block.

다른 실시예에서는 다양한 비인접 주변블록들이 이용될 수 있다. 비인접 주변블록들의 위치, 크기, 개수 또는 모양 등에 따라 다양한 주변블록들이 참조 템플릿으로서 이용될 수 있다. In other embodiments, various non-adjacent peripheral blocks may be utilized. Various peripheral blocks may be utilized as reference templates depending on their location, size, number, or shape.

현재블록의 MIP 예측을 위한 비인접 주변블록들은 기 정의되거나, 유도될 수 있다. Non-adjacent neighboring blocks for MIP prediction of the current block can be predefined or derived.

일 예로서, 비인접 주변블록들의 위치, 크기, 개수 또는 모양 등은 미리 규약될 수 있다.As an example, the location, size, number, or shape of non-adjacent surrounding blocks can be specified in advance.

다른 예로서, 비인접 주변블록들의 위치, 크기, 개수 또는 모양 등은 현재블록의 사이즈 또는 예측모드 등에 기초하여 유도될 수 있다. 영상 복호화 장치는 현재블록의 사이즈 또는 예측모드 등에 기초하여 기 정의된 비인접 주변블록들로부터 MIP 예측을 위한 비인접 주변블록들을 선택할 수 있다.As another example, the location, size, number, shape, etc. of non-adjacent neighboring blocks can be derived based on the size or prediction mode of the current block, etc. The image decoding device can select non-adjacent neighboring blocks for MIP prediction from predefined non-adjacent neighboring blocks based on the size or prediction mode of the current block, etc.

다른 예로서, 비인접 주변블록들의 위치, 크기, 개수 또는 모양 등은 시그널링 정보에 기초하여 유도될 수 있다. 시그널링 정보는 비인접 주변블록들을 특정하기 위한 플래그 또는 인덱스를 포함할 수 있다.As another example, the location, size, number, or shape of non-adjacent peripheral blocks can be derived based on signaling information. The signaling information may include a flag or index for specifying non-adjacent peripheral blocks.

도 9는 본 개시의 일 실시예에 따른 주변블록의 움직임 정보에 의해 지시되는 참조 템플릿을 설명하기 위한 도면이다.FIG. 9 is a drawing for explaining a reference template indicated by movement information of a surrounding block according to one embodiment of the present disclosure.

도 9에서, 현재블록의 좌측에 인접한 주변블록은 현재픽처 내에서 주변블록의 움직임 정보에 의해 지시되는 재구성된 블록(reconstructed block)을 이용하여 예측된 블록이다. In Fig. 9, the neighboring block adjacent to the left of the current block is a predicted block using a reconstructed block indicated by the motion information of the neighboring block within the current picture.

재구성된 블록은 주변블록의 예측 시에 템플릿 매칭을 이용하여 결정될 수 있다. 자세하게, 템플릿 매칭은 탐색 영역에서 대상블록의 템플릿과의 차이가 차이를 최소로 되는 템플릿을 찾는 것을 의미한다. 대상블록의 템플릿과 탐색 영역 내 어느 블록의 템플릿 간의 차이가 비용 함수로 정의된다. 비용이 최소가 되는 템플릿이 탐색되고, 탐색된 템플릿의 블록이 대상블록의 예측블록으로서 이용된다. 비용 함수로서 절대 차이들의 합(Sum of Absolute Differences; SAD), 절대 변환된 차이들의 합(Sum of Absolute Transformed Differences; SATD), 절대 차이들의 중간-제거된 합(Mean-Removed Sum of Absolute Differences; MR-SAD), 중간 제곱된 오차(Mean Squared Error; MSE), 또는 제곱된 오차의 합(Sum of Squared Error; SSE) 등이 이용될 수 있다. 예를 들어, 도 9에서, 주변블록의 템플릿과 재구성된 블록의 템플릿 간 차이가 가장 작고, 주변블록의 예측블록은 재구성된 블록과 같을 수 있다. 재구성된 블록은 주변블록으로부터 움직임 정보만큼 떨어진 위치에 있고, 주변블록과 동일한 사이즈를 가질 수 있다.A reconstructed block can be determined using template matching when predicting surrounding blocks. Specifically, template matching means finding a template in a search area that minimizes the difference from the template of a target block. The difference between the template of the target block and the template of any block in the search area is defined as a cost function. The template that minimizes the cost is searched for, and the block of the searched template is used as a prediction block of the target block. As the cost function, a sum of absolute differences (SAD), a sum of absolute transformed differences (SATD), a mean-removed sum of absolute differences (MR-SAD), a mean squared error (MSE), or a sum of squared errors (SSE) can be used. For example, in Fig. 9, the difference between the template of the surrounding block and the template of the reconstructed block is the smallest, and the predicted block of the surrounding block may be the same as the reconstructed block. The reconstructed block may be located at a distance equal to the motion information from the surrounding block and may have the same size as the surrounding block.

주변블록의 움직임 정보는 현재블록의 주변블록과 재구성 블록 간 상대적 위치 관계를 나타낼 수 있다. 주변블록의 움직임 정보는 블록 벡터(block vector)로 지칭될 수 있다. Motion information of surrounding blocks can indicate the relative positional relationship between the surrounding blocks of the current block and the reconstructed block. The motion information of surrounding blocks can be referred to as a block vector.

주변블록이 움직임 정보를 갖는 경우, 주변블록의 움직임 정보에 의해 지시되는 위치의 픽셀들 또는 지시되는 위치의 주변 픽셀들이 현재블록의 참조 템플릿으로서 이용될 수 있다.When a surrounding block has motion information, pixels at a location indicated by the motion information of the surrounding block or surrounding pixels at the indicated location can be used as a reference template of the current block.

일 예에서, 현재블록의 참조 템플릿으로서, 현재픽처 내 주변블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 재구성된 블록이 이용될 수 있다.In one example, as a reference template of the current block, a reconstructed block indicated by motion information of a surrounding block based on a surrounding block within the current picture can be used.

다른 예에서, 현재블록의 참조 템플릿으로서, 현재픽처 내 주변블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 재구성된 블록의 템플릿이 이용될 수 있다. In another example, as a reference template of the current block, a template of a reconstructed block indicated by motion information of a surrounding block based on a surrounding block within the current picture can be used.

다른 예에서, 현재블록의 참조 템플릿으로서, 현재픽처 내 현재블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록이 이용될 수 있다. 여기서, 주변블록의 움직임 정보의 크기와 방향은 유지되고, 주변블록의 움직임 정보에 의해 지시되는 블록은 재구성된 블록의 우측 블록일 수 있다.In another example, a block indicated by motion information of a neighboring block relative to the current block within the current picture may be used as a reference template for the current block. Here, the size and direction of the motion information of the neighboring block are maintained, and the block indicated by the motion information of the neighboring block may be the right block of the reconstructed block.

다른 예에서, 현재픽처 내 현재블록의 참조 템플릿으로서, 현재블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록의 템플릿이 이용될 수 있다. In another example, as a reference template of the current block in the current picture, a template of a block indicated by motion information of a surrounding block based on the current block may be used.

다른 실시예에서, 현재블록의 주변블록은 현재픽처와는 다른 참조픽처 내 재구성된 블록들 중에서 주변블록의 움직임 정보에 의해 지시되는 블록을 이용하여 예측될 수 있다. In another embodiment, the neighboring blocks of the current block can be predicted using blocks indicated by motion information of the neighboring blocks among reconstructed blocks in a reference picture different from the current picture.

주변블록의 움직임 정보는 참조픽처 내 주변블록의 대응블록과 참조픽처 내 재구성된블록 간 위치 관계를 나타낼 수 있다. 주변블록의 움직임 정보는 현재픽처 내 주변블록과 참조픽처 내 재구성된블록 간 상대적 위치 관계를 나타낼 수도 있다. 주변블록의 움직임 정보는 모션 벡터(motion vector)로 지칭될 수 있다.Motion information of a neighboring block can indicate the positional relationship between the corresponding neighboring block in a reference picture and the reconstructed block in the reference picture. Motion information of a neighboring block can also indicate the relative positional relationship between the neighboring block in the current picture and the reconstructed block in the reference picture. Motion information of a neighboring block can be referred to as a motion vector.

주변블록의 대응블록은 참조픽처 내 블록들 중 현재픽처 내 주변블록과 동일한 상대적 위치를 갖는 블록을 가리킨다. 다시 말하면, 현재픽처 내 주변블록의 위치와 참조픽처 내 주변블록의 대응블록의 위치는 동일하다. 나아가, 현재블록의 대응블록은 참조픽처 내 블록들 중 현재픽처 내 현재블록의 상대적 위치와 동일한 위치를 갖는 블록을 가리킨다.The corresponding block of a neighboring block refers to a block within a reference picture that has the same relative position as the neighboring block within the current picture. In other words, the positions of the neighboring blocks within the current picture and the corresponding blocks within the reference picture are identical. Furthermore, the corresponding block of the current block refers to a block within the reference picture that has the same relative position as the current block within the current picture.

일 예에서, 현재블록의 참조 템플릿으로서, 참조픽처 내 주변블록의 대응블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록이 이용될 수 있다. 지시되는 블록은 주변블록의 대응블록으로부터 움직임 정보만큼 떨어진 위치에 있는 블록이다.In one example, as a reference template for the current block, a block indicated by motion information of a neighboring block based on a corresponding block of a neighboring block within a reference picture may be used. The indicated block is a block located at a distance equal to the motion information from the corresponding block of the neighboring block.

다른 예에서, 현재블록의 참조 템플릿으로서, 참조픽처 내 주변블록의 대응블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록의 템플릿이 이용될 수 있다. In another example, as a reference template of the current block, a template of a block indicated by motion information of a surrounding block based on a corresponding block of a surrounding block in a reference picture may be used.

다른 예에서, 현재블록의 참조 템플릿으로서, 참조픽처 내 현재블록의 대응블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록이 이용될 수 있다. 여기서, 주변블록의 움직임 정보의 크기와 방향은 유지된다. 주변블록의 움직임 정보에 의해 지시되는 블록은 재구성된 블록의 대응블록의 우측 블록일 수 있다.In another example, a block indicated by motion information of a neighboring block relative to the corresponding block of the current block within the reference picture may be used as a reference template for the current block. Here, the magnitude and direction of the motion information of the neighboring block are maintained. The block indicated by the motion information of the neighboring block may be the block to the right of the corresponding block of the reconstructed block.

다른 예에서, 현재블록의 참조 템플릿으로서, 참조픽처 내 현재블록의 대응블록을 기준으로 주변블록의 움직임 정보에 의해 지시되는 블록의 템플릿이 이용될 수 있다. In another example, as a reference template of the current block, a template of a block indicated by motion information of a surrounding block based on a corresponding block of the current block in a reference picture may be used.

본 개시의 일 실시예에 따르면, 현재블록의 참조 템플릿이 MIP 예측에 이용 불가능한 경우, 참조 템플릿 내 적어도 하나의 픽셀은 패딩(padding) 또는 보간(interpolation) 중 적어도 하나를 이용하여 다른 픽셀로부터 생성될 수 있다.According to one embodiment of the present disclosure, if the reference template of the current block is not available for MIP prediction, at least one pixel within the reference template can be generated from another pixel using at least one of padding or interpolation.

자세하게, 현재블록의 참조 템플릿의 사이즈가 가중치 행렬의 사이즈 간 비매칭으로 인해 행렬 연산이 불가능하거나, 참조 템플릿 내 픽셀이 이용불가능하거나, 참조 템플릿이 소정의 경계에 걸쳐져 있는 경우, 참조 템플릿을 위한 픽셀들이 생성 또는 대체될 수 있다. 예를 들어, 참조 템플릿의 높이가 가중치 행렬의 너비보다 작을 때, 참조 템플릿은 확장될 수 있다.Specifically, if matrix operations are impossible due to a size mismatch between the reference template size of the current block and the size of the weight matrix, if pixels within the reference template are unavailable, or if the reference template straddles a predetermined boundary, pixels for the reference template may be generated or replaced. For example, if the height of the reference template is smaller than the width of the weight matrix, the reference template may be expanded.

참조 템플릿의 픽셀을 생성하기 위해, 패딩, 보간, 수직보간, 수평보간, 또는 수직과 수평 보간 등이 이용될 수 있다. To generate pixels from a reference template, padding, interpolation, vertical interpolation, horizontal interpolation, or both vertical and horizontal interpolation can be used.

일 예로서, 참조 템플릿 내 어느 픽셀을 참조 템플릿에 패딩함으로써, 참조 템플릿이 확장될 수 있다. 또는, 기 정의된 값 또는 비트심도에 따른 값을 이용하여 참조 템플릿이 패딩될 수 있다.For example, a reference template can be expanded by padding some pixels within the reference template. Alternatively, the reference template can be padded using a predefined value or a value based on bit depth.

다른 예로서, 참조 템플릿 내 하나 이상의 픽셀들을 보간함으로써, 참조 템플릿이 확장될 수 있다. 또는, 참조 템플릿의 주변 픽셀들을 보간함으로써, 참조 템플릿이 확장될 수 있다. 또는, 참조 템플릿 내 픽셀들과 참조 템플릿의 주변픽셀들을 이용하여 보간을 수행함으로써, 참조 템플릿이 확장될 수 있다.As another example, a reference template can be extended by interpolating one or more pixels within the reference template. Alternatively, a reference template can be extended by interpolating surrounding pixels within the reference template. Alternatively, a reference template can be extended by performing interpolation using pixels within the reference template and surrounding pixels of the reference template.

다른 예로서, 참조 템플릿 내 이용불가능한 픽셀은 주변픽셀들을 보간함으로써 생성되는 픽셀에 의해 대체될 수 있다.As another example, unavailable pixels within the reference template can be replaced by pixels generated by interpolating surrounding pixels.

본 개시의 일 실시예에 따르면, 소정 모양의 단위로 참조 템플릿 내 픽셀들의 가중합을 수행함으로써, 현재블록의 참조 템플릿은 조정될 수 있다. 조정된 참조 템플릿이 현재블록의 MIP 예측에 사용된다.According to one embodiment of the present disclosure, a reference template of a current block can be adjusted by performing a weighted sum of pixels within a reference template in units of a predetermined shape. The adjusted reference template is used for MIP prediction of the current block.

참조 템플릿의 조정은 수학식 3과 같이 표현될 수 있다. The adjustment of the reference template can be expressed as in mathematical expression 3.

수학식 3에서, refadj는 조정된 참조 템플릿이고, w는 가중치이고, ref은 참조 템플릿 내 가중합되는 단위이다. refn의 모양은 라인 또는 블록일 수 있다. 가중치들의 합은 1이 된다.In Equation 3, ref adj is an adjusted reference template, w is a weight, and ref is a weighted unit within the reference template. The shape of ref n can be a line or a block. The sum of the weights is 1.

일 예로서, 소정의 단위는 라인 단위일 수 있다. 현재블록의 참조 템플릿이 복수의 상단 참조라인들을 포함하는 상단 참조템플릿일 때, 참조 템플릿 내 복수의 상단 참조라인들이 수직방향으로 가중합될 수 있다. 여기서, 가중합된 참조라인의 라인 수는 복수의 상단 참조라인들의 라인 수보다 작다. For example, the given unit may be a line unit. When the reference template of the current block is an upper reference template including multiple upper reference lines, the multiple upper reference lines within the reference template may be weighted vertically. Here, the number of lines in the weighted reference lines is smaller than the number of lines in the multiple upper reference lines.

다른 예로서, 소정의 단위는 L자 단위 일 수 있다. 현재블록의 참조 템플릿의 모양이 L자 템플릿일 때, 참조 템플릿 내 L자 참조라인들은 L자 단위로 가중합될 수 있다. 상단 참조라인들 및 좌측 참조라인들이 가중합되고, 현재블록의 좌측상단 픽셀들이 가중합될 수 있다. 수학식 3에서, ref0는 현재블록에 인접한 L자 참조 라인이고, refn은 현재블록으로부터 가장 먼 L자 참조 라인일 수 있다.As another example, the given unit may be an L-shaped unit. When the shape of the reference template of the current block is an L-shaped template, the L-shaped reference lines within the reference template may be weighted in L-shaped units. The upper reference lines and the left reference lines may be weighted, and the upper left pixels of the current block may be weighted. In Equation 3, ref 0 may be an L-shaped reference line adjacent to the current block, and ref n may be an L-shaped reference line farthest from the current block.

다른 예로서, 소정의 단위는 블록 단위일 수 있다. 현재블록의 참조 템플릿이 현재블록의 비인접 주변블록들을 포함할 때, 비인접 주변블록들이 가중합될 수 있다. 가중합된 비인접 주변블록들의 개수는 가중합되지 않은 비인접 주변블록들의 개수보다 작다.As another example, the given unit may be a block unit. When the reference template of the current block includes non-adjacent neighboring blocks of the current block, the non-adjacent neighboring blocks may be weighted. The number of weighted non-adjacent neighboring blocks is smaller than the number of non-weighted neighboring blocks.

참조 템플릿의 조정을 위한 소정의 단위의 위치, 순서, 크기 또는 방향 등이 달라질 수 있다. 예를 들어, 상단 참조라인들이 수평방향으로 가중합될 수 있다. The position, order, size, or direction of certain units for adjusting the reference template may be changed. For example, the upper reference lines may be weighted horizontally.

참조 템플릿은 참조 템플릿의 일부에 대해 조정될 수도 있다. 다시 말하면, 조정된 참조 템플릿은 기존 참조 템플릿 내 라인들의 일부 또는 블록들의 일부에 대한 가중합 결과일 수 있다. A reference template may be adjusted for a portion of the reference template. In other words, the adjusted reference template may be a weighted sum of a portion of lines or blocks within the original reference template.

참조 템플릿의 조정을 위한 정보는 영상 부호화 장치 및 영상 복호화 장치 간에 규약되거나, 시그널링될 수 있다. 참조 템플릿의 조정을 위한 정보는 참조 템플릿을 조정할지 여부, 가중합을 위한 단위, 참조 템플릿 내 참조라인 또는 참조블록들의 위치, 크기, 개수, 또는 가중합 방향 등을 포함할 수 있다. Information for adjusting a reference template may be agreed upon or signaled between a video encoding device and a video decoding device. Information for adjusting a reference template may include whether to adjust the reference template, a unit for weighted summation, the location, size, number, or weighted sum direction of reference lines or reference blocks within the reference template.

도 10은 본 개시의 일 실시예에 따른 영상 부호화 방법의 순서도이다.FIG. 10 is a flowchart of an image encoding method according to one embodiment of the present disclosure.

도 10의 단계 S1010에서, 영상 부호화 장치는 현재블록의 인트라 예측모드를 결정한다.In step S1010 of FIG. 10, the image encoding device determines an intra prediction mode of the current block.

MIP 모드가 최적의 인트라 예측모드인 것으로 결정될 수 있다.MIP mode can be determined to be the optimal intra prediction mode.

단계 S1020에서, 영상 부호화 장치는 인트라 예측모드에 기초하여 현재블록에 대한 인트라 예측을 수행한다.In step S1020, the image encoding device performs intra prediction for the current block based on the intra prediction mode.

인트라 예측모드가 MIP 모드인 경우, 영상 부호화 장치는 현재블록에 대한 MIP 예측을 수행한다. MIP 예측은 도 6 내지 도 9에서 설명된 방법들을 이용하여 수행될 수 있다.When the intra prediction mode is MIP mode, the video encoding device performs MIP prediction for the current block. MIP prediction can be performed using the methods described in FIGS. 6 to 9.

단계 S1030에서, 영상 부호화 장치는 인트라 예측모드에 대한 정보를 부호화한다. In step S1030, the image encoding device encodes information about an intra prediction mode.

인트라 예측모드에 대한 정보는 MIP의 이용(use)에 대한 정보, MIP 예측에 이용되는 참조 템플릿, 행렬, 또는 오프셋 등에 대한 정보를 포함할 수 있다.Information about the intra prediction mode may include information about the use of MIP, information about the reference template, matrix, or offset used for MIP prediction, etc.

MIP의 이용에 대한 정보는 MIP 제약 플래그(MIP_constraint_flag) 및 MIP 플래그를 포함할 수 있다. MIP 플래그는 MIP 활성화 플래그(MIP_enabled_flag) 또는 MIP 비활성화 플래그(MIP_disabled_flag)일 수 있다. MIP 제약 플래그가 0으로 설정되는 것은 MIP 예측에 대한 제약이 없음을 나타낸다. MIP 활성화 플래그 또는 MIP 비활성화 플래그는 0 또는 1로 설정될 수 있다. 반면, IP 제약 플래그가 1로 설정되면, MIP 활성화 플래그는 0으로 설정되고, MIP 비활성화 플래그는 1로 설정된다.Information about the use of MIP may include a MIP constraint flag (MIP_constraint_flag) and a MIP flag. The MIP flag may be a MIP enable flag (MIP_enabled_flag) or a MIP disable flag (MIP_disabled_flag). Setting the MIP constraint flag to 0 indicates that there are no constraints on MIP prediction. The MIP enable flag or MIP disable flag may be set to 0 or 1. On the other hand, if the IP constraint flag is set to 1, the MIP enable flag is set to 0 and the MIP disable flag is set to 1.

MIP의 이용에 대한 정보는 상위 레벨 또는 하위 레벨에서 독립적으로 시그널링되거나, 다른 구문요소들에 종속적으로 시그널링될 수 있다. Information about the use of a MIP can be signaled independently at higher or lower levels, or dependent on other syntactic elements.

일 예로서, MIP의 이용에 대한 정보는 비디오 파라미터 셋(video parameter set, VPS), 시퀀스 파라미터 셋 (sequence parameter set, SPS), 픽처 파라미터 셋(picture parameter set, PPS), 픽처 헤더(picture header, PH), 또는 슬라이스 헤더(slice header, SH)와 같이, 상위 레벨에서 시그널링될 수 있다. As an example, information about the use of MIP can be signaled at a higher level, such as in a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), a picture header (PH), or a slice header (SH).

다른 예로서, MIP의 이용에 대한 정보는 코딩 트리 유닛(coding tree unit, CTU), 코딩 유닛(coding unit, CU), 예측 유닛(prediction unit, PU), 또는 변환 유닛(transform unit, TU) 등과 같이 하위 레벨에서 시그널링될 수 있다. MIP의 이용은 블록 단위로 제어된다.As another example, information about the use of MIPs can be signaled at lower levels, such as coding tree units (CTUs), coding units (CUs), prediction units (PUs), or transform units (TUs). The use of MIPs is controlled on a block-by-block basis.

다른 예로서, MIP의 이용에 대한 정보는 명시적인 플래그에 의해 시그널링되는 것이 아니라, 다른 예측모드들의 플래그들 또는 현재블록의 사이즈 등에 기초하여 종속적으로 시그널링될 수 있다. 영상 복호화 장치는 다른 예측모드들의 플래그들 또는 현재블록의 사이즈 등에 기초하여 MIP 모드를 결정할 수 있다.As another example, information regarding the use of MIP may be signaled not by an explicit flag, but may be signaled dependently based on flags of other prediction modes or the size of the current block, etc. The video decoding device may determine the MIP mode based on flags of other prediction modes or the size of the current block, etc.

도 11은 본 개시의 일 실시예에 따른 영상 복호화 방법의 순서도이다.FIG. 11 is a flowchart of an image decoding method according to one embodiment of the present disclosure.

도 11의 단계 S1110에서, 영상 복호화 장치는 현재블록의 인트라 예측모드에 대한 정보를 복호화한다.In step S1110 of FIG. 11, the image decoding device decodes information about the intra prediction mode of the current block.

인트라 예측모드에 대한 정보는 MIP의 이용에 대한 정보, MIP 예측에 이용되는 참조 템플릿, 행렬, 또는 오프셋 등에 대한 정보를 포함할 수 있다.Information about the intra prediction mode may include information about the use of MIP, information about the reference template, matrix, or offset used for MIP prediction, etc.

단계 S1120에서, 영상 복호화 장치는 인트라 예측모드에 대한 정보를 기반으로 현재블록의 인트라 예측모드를 결정한다. 여기서, 인트라 예측모드는 MIP 모드일 수 있다.In step S1120, the video decoding device determines the intra prediction mode of the current block based on information about the intra prediction mode. Here, the intra prediction mode may be a MIP mode.

단계 S1130에서, 영상 복호화 장치는 현재블록에 대한 MIP 예측을 수행한다. MIP 예측은 도 6 내지 도 9에서 설명된 방법들을 이용하여 수행될 수 있다.In step S1130, the image decoding device performs MIP prediction for the current block. MIP prediction can be performed using the methods described in FIGS. 6 to 9.

본 명세서의 흐름도/타이밍도에서는 각 과정들을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 개시의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 개시의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 흐름도/타이밍도에 기재된 순서를 변경하여 실행하거나 각 과정들 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 흐름도/타이밍도는 시계열적인 순서로 한정되는 것은 아니다.Although the flowchart/timing diagram of this specification describes each process as being executed sequentially, this is merely an illustrative description of the technical idea of one embodiment of the present disclosure. In other words, a person of ordinary skill in the art to which one embodiment of the present disclosure belongs may modify and apply various modifications and variations by changing the order described in the flowchart/timing diagram without departing from the essential characteristics of one embodiment of the present disclosure, or by executing one or more of the processes in parallel. Therefore, the flowchart/timing diagram is not limited to a chronological order.

이상의 설명에서 예시적인 실시예들은 많은 다른 방식으로 구현될 수 있다는 것을 이해해야 한다. 하나 이상의 예시들에서 설명된 기능들 혹은 방법들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다. 본 명세서에서 설명된 기능적 컴포넌트들은 그들의 구현 독립성을 특히 더 강조하기 위해 "...부(unit)" 로 라벨링되었음을 이해해야 한다. It should be understood that the exemplary embodiments described above can be implemented in many different ways. The functions or methods described in one or more examples can be implemented in hardware, software, firmware, or any combination thereof. It should be understood that the functional components described herein are labeled as "units" to further emphasize their implementation independence.

한편, 본 실시예에서 설명된 다양한 기능들 혹은 방법들은 하나 이상의 프로세서에 의해 판독되고 실행될 수 있는 비일시적 기록매체에 저장된 명령어들로 구현될 수도 있다. 비일시적 기록매체는, 예를 들어, 컴퓨터 시스템에 의하여 판독가능한 형태로 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 예를 들어, 비일시적 기록매체는 EPROM(erasable programmable read only memory), 플래시 드라이브, 광학 드라이브, 자기 하드 드라이브, 솔리드 스테이트 드라이브(SSD)와 같은 저장매체를 포함한다.Meanwhile, the various functions or methods described in this embodiment may also be implemented as instructions stored on a non-transitory storage medium that can be read and executed by one or more processors. Non-transitory storage media include, for example, all types of storage devices that store data in a form readable by a computer system. For example, non-transitory storage media include storage media such as erasable programmable read-only memory (EPROM), flash drives, optical drives, magnetic hard drives, and solid-state drives (SSDs).

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present embodiment, and those skilled in the art will appreciate that various modifications and variations can be made without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment, but rather to explain it, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be interpreted by the claims below, and all technical ideas within a scope equivalent thereto should be interpreted as being included in the scope of rights of the present embodiment.

CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION

본 특허출원은, 본 명세서에 그 전체가 참고로서 포함되는, 2024년 03월 26일에 한국에 출원한 특허출원번호 제10-2024-0041177호 및, 2025년 03월 24일에 한국에 출원한 특허출원번호 제10-2025-0037374호에 대해 우선권을 주장한다.This patent application claims priority to Korean Patent Application No. 10-2024-0041177, filed in Korea on March 26, 2024, and Korean Patent Application No. 10-2025-0037374, filed in Korea on March 24, 2025, the entire contents of which are incorporated herein by reference.

Claims (12)

영상 복호화 방법에 있어서, In the video decryption method, 복호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계;A step of determining a reference template containing decrypted pixels; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬을 결정하는 단계; 및A step of determining a weight matrix for matrix-based intra prediction of the current block; and 상기 현재블록의 참조 템플릿 및 상기 가중치 행렬에 기초하여 상기 현재블록의 예측블록을 생성하는 단계A step of generating a prediction block of the current block based on the reference template of the current block and the weight matrix. 를 포함하는 영상 복호화 방법.A method for decrypting an image including: 제1항에 있어서,In the first paragraph, 상기 참조 템플릿은, The above reference template is, 상기 복호화된 픽셀들 중 상기 현재블록에 인접한 픽셀들을 포함하는 영상 복호화 방법.An image decoding method including pixels adjacent to the current block among the decoded pixels. 제2항에 있어서,In the second paragraph, 상기 참조 템플릿은, The above reference template is, 상기 현재블록의 인트라 예측모드 또는 시그널링된 정보 중 어느 하나에 기초하여 결정되는 영상 복호화 방법.An image decoding method determined based on either the intra prediction mode of the current block or signaled information. 제1항에 있어서,In the first paragraph, 상기 참조 템플릿은, The above reference template is, 상기 복호화된 픽셀들 중 상기 현재블록에 인접하지 않은 픽셀들을 포함하는 영상 복호화 방법.An image decoding method including pixels that are not adjacent to the current block among the decoded pixels. 제1항에 있어서,In the first paragraph, 상기 참조 템플릿은, The above reference template is, 상기 현재블록의 주변블록의 움직임 정보에 의해 지시되는 참조영역을 포함하는 영상 복호화 방법.An image decoding method including a reference area indicated by motion information of surrounding blocks of the current block. 제1항에 있어서,In the first paragraph, 상기 참조 템플릿 내 픽셀들 중 적어도 하나는, At least one of the pixels within the above reference template, 패딩(padding) 또는 보간(interpolation) 중 적어도 하나를 이용하여 다른 픽셀로부터 생성되는 영상 복호화 방법.A method for decoding an image generated from other pixels using at least one of padding and interpolation. 제1항에 있어서,In the first paragraph, 소정 모양의 단위로 상기 참조 템플릿 내 픽셀들의 가중합을 수행함으로써, 상기 참조 템플릿을 조정하는 단계A step of adjusting the reference template by performing a weighted sum of pixels within the reference template in units of a predetermined shape. 를 더 포함하는 영상 복호화 방법.A method for decrypting an image further comprising: 제1항에 있어서,In the first paragraph, 상기 현재블록의 예측블록을 생성하는 단계는,The step of generating a prediction block of the current block above is: 상기 현재블록의 사이즈 또는 인트라 예측모드 중 적어도 하나가 기 정의된 값인 것에 기초하여, 상기 참조 템플릿을 축소하는 단계;A step of reducing the reference template based on at least one of the size or intra prediction mode of the current block being a predefined value; 상기 축소된 참조 템플릿에 기 정의된 행렬들 중 하나를 곱함으로써 경계 벡터를 생성하는 단계; 및generating a boundary vector by multiplying one of the predefined matrices by the reduced reference template; and 상기 경계 벡터를 업샘플링함으로써 상기 현재블록의 예측블록을 생성하는 단계A step of generating a prediction block of the current block by upsampling the boundary vector. 를 포함하는 영상 복호화 방법.A method for decrypting an image including: 제1항에 있어서,In the first paragraph, 상기 참조 템플릿의 사이즈는,The size of the above reference template is: 상기 현재블록의 사이즈 또는 상기 가중치 행렬의 사이즈 중 적어도 하나에 기초하여 결정되는 영상 복호화 방법.An image decoding method determined based on at least one of the size of the current block or the size of the weight matrix. 제1항에 있어서,In the first paragraph, 상기 현재블록의 예측블록은,The prediction block of the current block above is, 상기 현재블록의 행렬기반 인트라예측을 위한 오프셋에 더 기초하여 생성되는 것인 영상 복호화 방법.An image decoding method further generated based on an offset for matrix-based intra prediction of the current block. 영상 부호화 방법에 있어서,In the image encoding method, 부호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계;A step of determining a reference template containing encoded pixels; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬을 결정하는 단계; 및A step of determining a weight matrix for matrix-based intra prediction of the current block; and 상기 현재블록의 참조 템플릿 및 상기 가중치 행렬에 기초하여 상기 현재블록의 예측블록을 생성하는 단계A step of generating a prediction block of the current block based on the reference template of the current block and the weight matrix. 를 포함하는 영상 부호화 방법.A method of encoding an image including: 영상에 대한 비트스트림을 포함하는 데이터를 전송하는 방법에 있어서,A method for transmitting data including a bitstream for an image, 상기 영상에 대한 비트스트림을 생성하는 단계; 및A step of generating a bitstream for the above image; and 상기 비트스트림을 포함하는 데이터를 전송하는 단계A step of transmitting data including the above bitstream 를 포함하고,Including, 상기 비트스트림을 생성하는 단계는, The step of generating the above bitstream is: 부호화된 픽셀들을 포함하는 참조 템플릿을 결정하는 단계;A step of determining a reference template containing encoded pixels; 현재블록의 행렬기반 인트라예측을 위한 가중치 행렬을 결정하는 단계; 및A step of determining a weight matrix for matrix-based intra prediction of the current block; and 상기 현재블록의 참조 템플릿 및 상기 가중치 행렬 기초하여 상기 현재블록의 예측블록을 생성하는 단계A step of generating a prediction block of the current block based on the reference template of the current block and the weight matrix. 를 포함하는 방법.How to include.
PCT/KR2025/003814 2024-03-26 2025-03-25 Method and apparatus for matrix-based intra prediction on basis of various reference pixels Pending WO2025206716A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2024-0041177 2024-03-26
KR20240041177 2024-03-26
KR1020250037374A KR20250144302A (en) 2024-03-26 2025-03-24 Method and Device for Matrix-based Intra Prediction based on Various Reference Pixel
KR10-2025-0037374 2025-03-24

Publications (1)

Publication Number Publication Date
WO2025206716A1 true WO2025206716A1 (en) 2025-10-02

Family

ID=97215469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2025/003814 Pending WO2025206716A1 (en) 2024-03-26 2025-03-25 Method and apparatus for matrix-based intra prediction on basis of various reference pixels

Country Status (1)

Country Link
WO (1) WO2025206716A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170180727A1 (en) * 2014-10-31 2017-06-22 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US20230056211A1 (en) * 2021-02-05 2023-02-23 Tencent Technology (Shenzhen) Company Limited Video encoding method and apparatus, video decoding method and apparatus, computer program product, computer-readable storage medium, and electronic device
WO2023197433A1 (en) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 Video encoding method, apparatus and device, video decoding method, apparatus and device, video encoding and decoding system, and storage medium
US20230336718A1 (en) * 2022-04-18 2023-10-19 Comcast Cable Communications, Llc Video Compression Using Template-Based Determination of Intra Prediction Mode

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170180727A1 (en) * 2014-10-31 2017-06-22 Huawei Technologies Co., Ltd. Picture prediction method and related apparatus
US20230056211A1 (en) * 2021-02-05 2023-02-23 Tencent Technology (Shenzhen) Company Limited Video encoding method and apparatus, video decoding method and apparatus, computer program product, computer-readable storage medium, and electronic device
WO2023197433A1 (en) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 Video encoding method, apparatus and device, video decoding method, apparatus and device, video encoding and decoding system, and storage medium
US20230336718A1 (en) * 2022-04-18 2023-10-19 Comcast Cable Communications, Llc Video Compression Using Template-Based Determination of Intra Prediction Mode

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J.-Y. HUO, W.-H. QIAO, X. HAO, Y.-Z. MA, F.-Z. YANG (XIDIAN UNIV.), J. REN (OPPO), M. LI (OPPO), L.-H. XU (OPPO): "EE2-4.1: Modification of LFNST for MIP coded block", 28. JVET MEETING; 20221021 - 20221028; MAINZ; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), no. JVET-AB0067 ; m60796, 14 October 2022 (2022-10-14), XP030304501 *

Similar Documents

Publication Publication Date Title
WO2021006617A1 (en) Method and device for encoding and decoding videoby using inter-prediction
WO2023182698A1 (en) Method for reconstructed luma information-based chroma component prediction
WO2023038315A1 (en) Video coding method and apparatus using subblock coding order change and intra prediction according thereto
WO2024111820A1 (en) Method and device for video coding that intra-predict chroma block on basis of geometric partitioning
WO2023224280A1 (en) Video coding method and device using mixed cross-component prediction
WO2024034849A1 (en) Video coding method and device using luma component-based chroma component prediction
WO2025206716A1 (en) Method and apparatus for matrix-based intra prediction on basis of various reference pixels
WO2025211725A1 (en) Method and device for encoding and decoding image by using inter-prediction mode
WO2025225966A1 (en) Method and device for video coding using extrapolation filter in intra prediction
WO2025135568A1 (en) Method and apparatus for chroma predictor correction based on cross-component variation
WO2024150977A1 (en) Method and device for video coding using remote reference pixels
WO2025165185A1 (en) Intra prediction method and apparatus using intra prediction mode candidate list
WO2025230221A1 (en) Method for improving subjective image quality in template matching-based prediction
WO2026054333A1 (en) Method for generating adaptive histogram of occurrence of intra prediction mode using weight
WO2023224289A1 (en) Method and apparatus for video coding using virtual reference line
WO2026075372A1 (en) Method for partitioning mode transmission in geometric partitioning-based prediction
WO2025220910A1 (en) Selective use of local illumination compensation model, and device using same
WO2026089280A1 (en) Method for geometric partitioning-based prediction using adaptive weighted sum
WO2026071459A1 (en) Method for extrapolation-based intra prediction
WO2025211603A1 (en) Method and device for video coding using bi-predictive local illumination compensation
WO2025121677A1 (en) Method and apparatus for video coding based on sign prediction of transform skip block
WO2023106603A1 (en) Method and apparatus for video coding using secondary mpm list based on template matching
WO2024214934A1 (en) Method and device for video coding using bidirectional prediction based on motion vector correction
WO2025244328A1 (en) Method and apparatus for video coding for deriving intra prediction mode
WO2024111851A1 (en) Method and device for video coding using intra subdivision prediction and transform skip

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25776722

Country of ref document: EP

Kind code of ref document: A1