論文の概要: M-LVC: Multiple Frames Prediction for Learned Video Compression
- arxiv url: http://arxiv.org/abs/2004.10290v1
- Date: Tue, 21 Apr 2020 20:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:49:18.979520
- Title: M-LVC: Multiple Frames Prediction for Learned Video Compression
- Title(参考訳): M-LVC:学習ビデオ圧縮のための複数フレーム予測
- Authors: Jianping Lin, Dong Liu, Houqiang Li, Feng Wu
- Abstract要約: 低レイテンシシナリオのためのエンドツーエンドの学習ビデオ圧縮方式を提案する。
提案方式では, 移動ベクトル(MV)場を現在のフレームと前のフレームの間で計算する。
実験の結果,提案手法は,低遅延モードにおける既存の学習ビデオ圧縮法よりも優れていた。
- 参考スコア(独自算出の注目度): 111.50760486258993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an end-to-end learned video compression scheme for low-latency
scenarios. Previous methods are limited in using the previous one frame as
reference. Our method introduces the usage of the previous multiple frames as
references. In our scheme, the motion vector (MV) field is calculated between
the current frame and the previous one. With multiple reference frames and
associated multiple MV fields, our designed network can generate more accurate
prediction of the current frame, yielding less residual. Multiple reference
frames also help generate MV prediction, which reduces the coding cost of MV
field. We use two deep auto-encoders to compress the residual and the MV,
respectively. To compensate for the compression error of the auto-encoders, we
further design a MV refinement network and a residual refinement network,
taking use of the multiple reference frames as well. All the modules in our
scheme are jointly optimized through a single rate-distortion loss function. We
use a step-by-step training strategy to optimize the entire scheme.
Experimental results show that the proposed method outperforms the existing
learned video compression methods for low-latency mode. Our method also
performs better than H.265 in both PSNR and MS-SSIM. Our code and models are
publicly available.
- Abstract(参考訳): 低レイテンシシナリオのためのエンドツーエンド学習ビデオ圧縮方式を提案する。
以前の1フレームを参照として使用する場合、以前の方法に制限がある。
提案手法では,過去の複数フレームを参照として利用する。
提案方式では, 移動ベクトル(MV)場を現在のフレームと前のフレームの間で計算する。
複数の参照フレームと関連する複数のmvフィールドによって、設計したネットワークは現在のフレームをより正確に予測し、残量を減らすことができる。
複数の参照フレームはMV予測を生成するのにも役立ち、MVフィールドのコーディングコストを低減する。
2つのディープオートエンコーダを用いて残差とMVをそれぞれ圧縮する。
オートエンコーダの圧縮誤差を補うため,MVリファインダネットワークと残差リファインダネットワークを設計し,複数の参照フレームも利用する。
我々の計画のすべてのモジュールは、単一のレート歪み損失関数によって共同最適化される。
スキーム全体を最適化するために、ステップバイステップのトレーニング戦略を使用します。
実験の結果,提案手法は,低遅延モードにおける既存の学習ビデオ圧縮法よりも優れていた。
また,PSNR,MS-SSIMともにH.265よりも高い性能を示した。
私たちのコードとモデルは公開されています。
関連論文リスト
- IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - Predictive Coding For Animation-Based Video Compression [13.161311799049978]
本稿では,画像アニメーションを予測器として用いる予測符号化手法を提案し,実際の対象フレームに対する残差を符号化する。
実験の結果,HEVCビデオ標準に比べて70%以上,VVCに比べて30%以上,有意な上昇を示した。
論文 参考訳(メタデータ) (2023-07-09T14:40:54Z) - Scene Matters: Model-based Deep Video Compression [13.329074811293292]
本稿では,シーンを映像シーケンスの基本単位とみなすモデルベースビデオ圧縮(MVC)フレームワークを提案する。
提案したMVCは,1シーンでビデオシーケンス全体の新しい強度変化を直接モデル化し,冗長性を低減せず,非冗長表現を求める。
提案手法は,最新のビデオ標準H.266に比べて最大20%の削減を実現し,既存のビデオ符号化方式よりもデコーディングの効率がよい。
論文 参考訳(メタデータ) (2023-03-08T13:15:19Z) - Butterfly: Multiple Reference Frames Feature Propagation Mechanism for
Neural Video Compression [17.073251238499314]
ニューラルビデオ圧縮のためのより合理的な多参照フレーム伝搬機構を提案する。
従来のSOTA(State-of-the-art)よりも優れています。
我々のニューラルデータセットは、基本的な単一参照フレームモデルと比較すると、HEVCクラスDで7.6%の節約を達成できる。
論文 参考訳(メタデータ) (2023-03-06T08:19:15Z) - Advancing Learned Video Compression with In-loop Frame Prediction [177.67218448278143]
本稿では,ループ内フレーム予測モジュールを用いたALVC(Advanced Learned Video Compression)アプローチを提案する。
予測フレームは、以前圧縮されたフレームよりも優れた参照として機能し、圧縮性能の恩恵を受けることができる。
本実験は,学習ビデオ圧縮におけるALVC手法の最先端性能を示すものである。
論文 参考訳(メタデータ) (2022-11-13T19:53:14Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - End-to-End Rate-Distortion Optimized Learned Hierarchical Bi-Directional
Video Compression [10.885590093103344]
学習VCは、非線形変換、運動、エントロピーモデルのエンドツーエンドの速度歪み(R-D)最適化トレーニングを同時に行うことができる。
本稿では,階層型モーションサンプリングとエンドツーエンド最適化の利点を組み合わせた,学習型階層型双方向ビデオ(LHBDC)を提案する。
論文 参考訳(メタデータ) (2021-12-17T14:30:22Z) - Conditional Entropy Coding for Efficient Video Compression [82.35389813794372]
本稿では,フレーム間の条件エントロピーをモデル化することのみに焦点を当てた,非常にシンプルで効率的なビデオ圧縮フレームワークを提案する。
まず、画像遅延符号間のエントロピーをモデル化する単純なアーキテクチャが、他のニューラルビデオ圧縮やビデオコーデックと同等の競争力を持つことを示す。
次に、このアーキテクチャの上に新しい内部学習拡張を提案し、復号速度を抑えることなく10%の節約を実現した。
論文 参考訳(メタデータ) (2020-08-20T20:01:59Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。