論文の概要: Butterfly: Multiple Reference Frames Feature Propagation Mechanism for
Neural Video Compression
- arxiv url: http://arxiv.org/abs/2303.02959v1
- Date: Mon, 6 Mar 2023 08:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:40:22.871303
- Title: Butterfly: Multiple Reference Frames Feature Propagation Mechanism for
Neural Video Compression
- Title(参考訳): バタフライ:複数の参照フレームにニューラルビデオ圧縮のための伝播機構
- Authors: Feng Wang, Haihang Ruan, Fei Xiong, Jiayu Yang, Litian Li and Ronggang
Wang
- Abstract要約: ニューラルビデオ圧縮のためのより合理的な多参照フレーム伝搬機構を提案する。
従来のSOTA(State-of-the-art)よりも優れています。
我々のニューラルデータセットは、基本的な単一参照フレームモデルと比較すると、HEVCクラスDで7.6%の節約を達成できる。
- 参考スコア(独自算出の注目度): 17.073251238499314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using more reference frames can significantly improve the compression
efficiency in neural video compression. However, in low-latency scenarios, most
existing neural video compression frameworks usually use the previous one frame
as reference. Or a few frameworks which use the previous multiple frames as
reference only adopt a simple multi-reference frames propagation mechanism. In
this paper, we present a more reasonable multi-reference frames propagation
mechanism for neural video compression, called butterfly multi-reference frame
propagation mechanism (Butterfly), which allows a more effective feature fusion
of multi-reference frames. By this, we can generate more accurate temporal
context conditional prior for Contextual Coding Module. Besides, when the
number of decoded frames does not meet the required number of reference frames,
we duplicate the nearest reference frame to achieve the requirement, which is
better than duplicating the furthest one. Experiment results show that our
method can significantly outperform the previous state-of-the-art (SOTA), and
our neural codec can achieve -7.6% bitrate save on HEVC Class D dataset when
compares with our base single-reference frame model with the same compression
configuration.
- Abstract(参考訳): より多くの参照フレームを使用することで、神経ビデオ圧縮の圧縮効率が大幅に向上する。
しかしながら、低レイテンシのシナリオでは、既存のほとんどのニューラルビデオ圧縮フレームワークは、通常、前のフレームを参照として使用する。
あるいは、以前の複数のフレームを参照として使用するいくつかのフレームワークは、単純なマルチ参照フレームの伝搬メカニズムのみを採用する。
本稿では,バタフライマルチリファレンスフレーム伝搬機構(butterfly,butterfly)と呼ばれる,ニューラルビデオ圧縮のためのより合理的なマルチリファレンスフレーム伝播機構を提案する。
これにより、コンテキスト符号化モジュールに先立ってより正確な時間的文脈条件を生成することができる。
また,復号化フレーム数が要求される参照フレーム数に満たない場合には,最も近い参照フレームを複製して要求を達成する。
実験の結果,提案手法は従来のSOTA(State-of-the-art)よりも大幅に優れており,同じ圧縮構成の単一参照フレームモデルと比較すると,HEVCクラスDデータセット上で7.6%のビットレートセーブが得られることがわかった。
関連論文リスト
- High-Efficiency Neural Video Compression via Hierarchical Predictive Learning [27.41398149573729]
強化されたDeep Hierarchical Video Compression(DHVC 2.0)は、優れた圧縮性能と目覚ましい複雑さの効率を導入する。
階層的な予測符号化を使用して、各ビデオフレームをマルチスケール表現に変換する。
トランスミッションフレンドリーなプログレッシブデコーディングをサポートしており、パケットロスの存在下では特にネットワーク化されたビデオアプリケーションに有利である。
論文 参考訳(メタデータ) (2024-10-03T15:40:58Z) - IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - Predictive Coding For Animation-Based Video Compression [13.161311799049978]
本稿では,画像アニメーションを予測器として用いる予測符号化手法を提案し,実際の対象フレームに対する残差を符号化する。
実験の結果,HEVCビデオ標準に比べて70%以上,VVCに比べて30%以上,有意な上昇を示した。
論文 参考訳(メタデータ) (2023-07-09T14:40:54Z) - Advancing Learned Video Compression with In-loop Frame Prediction [177.67218448278143]
本稿では,ループ内フレーム予測モジュールを用いたALVC(Advanced Learned Video Compression)アプローチを提案する。
予測フレームは、以前圧縮されたフレームよりも優れた参照として機能し、圧縮性能の恩恵を受けることができる。
本実験は,学習ビデオ圧縮におけるALVC手法の最先端性能を示すものである。
論文 参考訳(メタデータ) (2022-11-13T19:53:14Z) - Extending Neural P-frame Codecs for B-frame Coding [15.102346715690755]
当社のB-frameソリューションは、既存のP-frameメソッドに基づいています。
提案手法を既存のPフレームで使用することにより,UVGデータセットのビットレートを28.5%削減できることを示す。
論文 参考訳(メタデータ) (2021-03-30T21:25:35Z) - Conditional Entropy Coding for Efficient Video Compression [82.35389813794372]
本稿では,フレーム間の条件エントロピーをモデル化することのみに焦点を当てた,非常にシンプルで効率的なビデオ圧縮フレームワークを提案する。
まず、画像遅延符号間のエントロピーをモデル化する単純なアーキテクチャが、他のニューラルビデオ圧縮やビデオコーデックと同等の競争力を持つことを示す。
次に、このアーキテクチャの上に新しい内部学習拡張を提案し、復号速度を抑えることなく10%の節約を実現した。
論文 参考訳(メタデータ) (2020-08-20T20:01:59Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z) - M-LVC: Multiple Frames Prediction for Learned Video Compression [111.50760486258993]
低レイテンシシナリオのためのエンドツーエンドの学習ビデオ圧縮方式を提案する。
提案方式では, 移動ベクトル(MV)場を現在のフレームと前のフレームの間で計算する。
実験の結果,提案手法は,低遅延モードにおける既存の学習ビデオ圧縮法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-21T20:42:02Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。