論文の概要: Deep Learning-Based Intra Mode Derivation for Versatile Video Coding
- arxiv url: http://arxiv.org/abs/2204.04059v1
- Date: Fri, 8 Apr 2022 13:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 14:05:45.109172
- Title: Deep Learning-Based Intra Mode Derivation for Versatile Video Coding
- Title(参考訳): 深層学習に基づくビデオ符号化のためのイントラモード導出
- Authors: Linwei Zhu, Yun Zhang, Na Li, Gangyi Jiang, and Sam Kwong
- Abstract要約: 本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
- 参考スコア(独自算出の注目度): 65.96100964146062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In intra coding, Rate Distortion Optimization (RDO) is performed to achieve
the optimal intra mode from a pre-defined candidate list. The optimal intra
mode is also required to be encoded and transmitted to the decoder side besides
the residual signal, where lots of coding bits are consumed. To further improve
the performance of intra coding in Versatile Video Coding (VVC), an intelligent
intra mode derivation method is proposed in this paper, termed as Deep Learning
based Intra Mode Derivation (DLIMD). In specific, the process of intra mode
derivation is formulated as a multi-class classification task, which aims to
skip the module of intra mode signaling for coding bits reduction. The
architecture of DLIMD is developed to adapt to different quantization parameter
settings and variable coding blocks including non-square ones, which are
handled by one single trained model. Different from the existing deep learning
based classification problems, the hand-crafted features are also fed into the
intra mode derivation network besides the learned features from feature
learning network. To compete with traditional method, one additional binary
flag is utilized in the video codec to indicate the selected scheme with RDO.
Extensive experimental results reveal that the proposed method can achieve
2.28%, 1.74%, and 2.18% bit rate reduction on average for Y, U, and V
components on the platform of VVC test model, which outperforms the
state-of-the-art works.
- Abstract(参考訳): イントラコーディングでは、予め定義された候補リストから最適なイントラモードを実現するためにレート歪み最適化(RDO)を行う。
最適なイントラモードは、多くの符号化ビットが消費される残信号の他に、デコーダ側へ符号化され送信されることも要求される。
本稿では,汎用ビデオ符号化(vvc)におけるイントラコーディングの性能をさらに向上させるために,ディープラーニングに基づくイントラモード導出(dlimd)と呼ばれるインテリジェントイントラモード導出法を提案する。
具体的には、イントラモードの導出過程を多クラス分類タスクとして定式化し、イントラモードシグナリングのモジュールを省略して符号化ビットの低減を図る。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と2乗でないブロックを含む可変符号化ブロックに適応するように開発され、1つの訓練されたモデルで処理される。
既存のディープラーニングに基づく分類問題とは異なり、手作りの機能は、特徴学習ネットワークから学習した特徴に加え、モード内導出ネットワークに供給される。
従来の手法と競合するために、ビデオコーデックで1つの追加のバイナリフラグを使用して、選択したスキームをRDOで示す。
広範な実験結果から,提案手法は,vvcテストモデルのプラットフォーム上で,y,u,vコンポーネントの平均で2.28%,1.74%,2.18%のビットレート削減を達成できることが分かった。
関連論文リスト
- Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Efficient VVC Intra Prediction Based on Deep Feature Fusion and
Probability Estimation [57.66773945887832]
本稿では,フレーム内予測におけるVersatile Video Coding (VVC) の複雑性を,深層融合と確率推定の2段階のフレームワークを用いて最適化することを提案する。
特に高精細度(HD)および超高精細度(UHD)ビデオシーケンスにおいて,提案手法の優位性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-05-07T08:01:32Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - BLINC: Lightweight Bimodal Learning for Low-Complexity VVC Intra Coding [5.629161809575015]
Versatile Video Coding (VVC) は,前任のHEVC (High Efficiency Video Coding) と比較して,ほぼ2倍の符号化効率を実現している。
本稿では,2つの特徴を共同で個別に活用し,イントラコーディング決定を簡素化する,新しい機械学習手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T19:12:41Z) - End-to-end Neural Video Coding Using a Compound Spatiotemporal
Representation [33.54844063875569]
本稿では,2つの手法により生成された予測を適応的に組み合わせたハイブリッド動作補償法を提案する。
具体的には、リカレント情報集約(RIA)モジュールを用いて、複合時間表現(STR)を生成する。
さらに、ベクトルベースの再サンプリング、適応カーネルベースの再サンプリング、補償モード選択マップ、テクスチャ拡張を含む、CSTRから複数の予測を生成する1対多デコーダパイプラインを設計する。
論文 参考訳(メタデータ) (2021-08-05T19:43:32Z) - Multitask Learning for VVC Quality Enhancement and Super-Resolution [11.446576112498596]
デコードされたVVCビデオ品質を高めるための後処理のステップとして学習ベースのソリューションを提案します。
提案手法はマルチタスク学習に依存し,複数のレベルに最適化された1つの共有ネットワークを用いて品質向上と超解像化を実現する。
論文 参考訳(メタデータ) (2021-04-16T19:05:26Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Neural Video Coding using Multiscale Motion Compensation and
Spatiotemporal Context Model [45.46660511313426]
エンド・ツー・エンドのディープ・ニューラル・ビデオ・コーディング・フレームワーク(NVC)を提案する。
フレーム内画素、フレーム間運動、フレーム間補償残差の相関を利用するために、共同空間および時間的事前集約(PA)を備えた可変オートエンコーダ(VAE)を使用する。
NVCは低遅延因果条件で評価され、H.265/HEVC、H.264/AVC、その他の学習ビデオ圧縮法と比較される。
論文 参考訳(メタデータ) (2020-07-09T06:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。