論文の概要: Coarse-to-fine Deep Video Coding with Hyperprior-guided Mode Prediction
- arxiv url: http://arxiv.org/abs/2206.07460v1
- Date: Wed, 15 Jun 2022 11:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 15:20:00.401058
- Title: Coarse-to-fine Deep Video Coding with Hyperprior-guided Mode Prediction
- Title(参考訳): hyperprior-guided mode 予測を用いた大雑把な奥行き映像符号化
- Authors: Zhihao Hu, Guo Lu, Jinyang Guo, Shan Liu, Wei Jiang and Dong Xu
- Abstract要約: 動き補償を改善するために,粗大なC2F(Deep Video compression framework)を提案する。
我々のC2Fフレームワークは、ビットコストを大幅に増大させることなく、より良い動き補償結果を得ることができる。
- 参考スコア(独自算出の注目度): 50.361427832256524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The previous deep video compression approaches only use the single scale
motion compensation strategy and rarely adopt the mode prediction technique
from the traditional standards like H.264/H.265 for both motion and residual
compression. In this work, we first propose a coarse-to-fine (C2F) deep video
compression framework for better motion compensation, in which we perform
motion estimation, compression and compensation twice in a coarse to fine
manner. Our C2F framework can achieve better motion compensation results
without significantly increasing bit costs. Observing hyperprior information
(i.e., the mean and variance values) from the hyperprior networks contains
discriminant statistical information of different patches, we also propose two
efficient hyperprior-guided mode prediction methods. Specifically, using
hyperprior information as the input, we propose two mode prediction networks to
respectively predict the optimal block resolutions for better motion coding and
decide whether to skip residual information from each block for better residual
coding without introducing additional bit cost while bringing negligible extra
computation cost. Comprehensive experimental results demonstrate our proposed
C2F video compression framework equipped with the new hyperprior-guided mode
prediction methods achieves the state-of-the-art performance on HEVC, UVG and
MCL-JCV datasets.
- Abstract(参考訳): 従来のディープビデオ圧縮アプローチでは、シングルスケールのモーション補償戦略のみを使用しており、モーション圧縮と残留圧縮の両方にH.264/H.265のような従来の標準からモード予測技術を採用することはまれである。
本研究ではまず, 動き推定, 圧縮, 補償を2回, きめ細かな方法で行うことによって, 動き補償を改善するための粗大な(C2F)ディープビデオ圧縮フレームワークを提案する。
我々のC2Fフレームワークは、ビットコストを大幅に増大させることなく、より良い動き補償結果を得ることができる。
超プライアネットワークから高プライア情報(平均値と分散値)を観測するには、異なるパッチの識別統計情報を含むため、2つの効率的な高プライア誘導モード予測法を提案する。
具体的には,入力としてハイパープライア情報を用いる2つのモード予測ネットワークを提案し,各ブロックから残差情報をスキップして残差符号化を行うかを決定する。
HEVC, UVG, MCL-JCVデータセット上での最先端性能を実現するために, 新たなモード予測手法を備えたC2Fビデオ圧縮フレームワークを提案する。
関連論文リスト
- IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - MMVC: Learned Multi-Mode Video Compression with Block-based Prediction
Mode Selection and Density-Adaptive Entropy Coding [21.147001610347832]
動作パターンに適応した特徴領域予測のための最適モードを選択するマルチモードビデオ圧縮フレームワークを提案する。
エントロピー符号化では、高密度かつスパースな後量子化残差ブロックを考慮し、任意のラン長符号化を適用して圧縮率を向上させる。
現状の映像圧縮方式や標準コーデックと比較すると,PSNRとMS-SSIMで測定したより優れた,あるいは競争的な結果が得られる。
論文 参考訳(メタデータ) (2023-04-05T07:37:48Z) - Scene Matters: Model-based Deep Video Compression [13.329074811293292]
本稿では,シーンを映像シーケンスの基本単位とみなすモデルベースビデオ圧縮(MVC)フレームワークを提案する。
提案したMVCは,1シーンでビデオシーケンス全体の新しい強度変化を直接モデル化し,冗長性を低減せず,非冗長表現を求める。
提案手法は,最新のビデオ標準H.266に比べて最大20%の削減を実現し,既存のビデオ符号化方式よりもデコーディングの効率がよい。
論文 参考訳(メタデータ) (2023-03-08T13:15:19Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Learning Cross-Scale Prediction for Efficient Neural Video Compression [30.051859347293856]
低レイテンシモードのUVGデータセット上のsRGB PSNRの観点から、最新のコーディング標準であるH.266/VVCと競合する最初のニューラルビデオを示す。
そこで我々は,より効率的な動き補償を実現する,新しいクロススケール予測モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-26T03:12:17Z) - Versatile Learned Video Compression [26.976302025254043]
本稿では,可能な全ての予測モードをサポートするために,一つのモデルを用いた多目的学習ビデオ圧縮(VLVC)フレームワークを提案する。
具体的には、多目的圧縮を実現するために、まず複数の3次元運動ベクトル場を適用した動き補償モジュールを構築する。
フロー予測モジュールは, ボクセルフローの伝送コストを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2021-11-05T10:50:37Z) - Self-Supervised Learning of Perceptually Optimized Block Motion
Estimates for Video Compression [50.48504867843605]
多段階畳み込みニューラルネットワークを用いた探索自由ブロック運動推定フレームワークを提案する。
動作補償フレームの知覚品質を最適化するために,マルチスケール構造類似度(MS-SSIM)損失関数をデプロイする。
論文 参考訳(メタデータ) (2021-10-05T03:38:43Z) - End-to-End Rate-Distortion Optimization for Bi-Directional Learned Video
Compression [10.404162481860634]
学習されたビデオ圧縮は、すべての非線形モジュールのエンドツーエンドの速度歪みを最適化する訓練を可能にする。
本稿では,画像の固定サイズ群に対するコスト関数の蓄積による階層的,双方向な動きのエンドツーエンド最適化を初めて提案する。
論文 参考訳(メタデータ) (2020-08-11T22:50:06Z) - M-LVC: Multiple Frames Prediction for Learned Video Compression [111.50760486258993]
低レイテンシシナリオのためのエンドツーエンドの学習ビデオ圧縮方式を提案する。
提案方式では, 移動ベクトル(MV)場を現在のフレームと前のフレームの間で計算する。
実験の結果,提案手法は,低遅延モードにおける既存の学習ビデオ圧縮法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-21T20:42:02Z) - Accelerating Deep Reinforcement Learning With the Aid of Partial Model:
Energy-Efficient Predictive Video Streaming [97.75330397207742]
深層強化学習を用いて,モバイルネットワーク上でのエネルギー効率の高いビデオストリーミングのための予測電力割り当てを考案した。
連続状態と行動空間を扱うために、我々はDeep Deterministic Policy gradient (DDPG)アルゴリズムを利用する。
シミュレーションの結果,提案手法は完全大規模チャネル予測に基づいて導出される最適方針に収束することが示された。
論文 参考訳(メタデータ) (2020-03-21T17:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。