論文の概要: Extending Neural P-frame Codecs for B-frame Coding
- arxiv url: http://arxiv.org/abs/2104.00531v1
- Date: Tue, 30 Mar 2021 21:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 11:13:45.904869
- Title: Extending Neural P-frame Codecs for B-frame Coding
- Title(参考訳): Bフレーム符号化のためのニューラルPフレームコーデックの拡張
- Authors: Reza Pourreza and Taco S Cohen
- Abstract要約: 当社のB-frameソリューションは、既存のP-frameメソッドに基づいています。
提案手法を既存のPフレームで使用することにより,UVGデータセットのビットレートを28.5%削減できることを示す。
- 参考スコア(独自算出の注目度): 15.102346715690755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While most neural video codecs address P-frame coding (predicting each frame
from past ones), in this paper we address B-frame compression (predicting
frames using both past and future reference frames). Our B-frame solution is
based on the existing P-frame methods. As a result, B-frame coding capability
can easily be added to an existing neural codec. The basic idea of our B-frame
coding method is to interpolate the two reference frames to generate a single
reference frame and then use it together with an existing P-frame codec to
encode the input B-frame. Our studies show that the interpolated frame is a
much better reference for the P-frame codec compared to using the previous
frame as is usually done. Our results show that using the proposed method with
an existing P-frame codec can lead to 28.5%saving in bit-rate on the UVG
dataset compared to the P-frame codec while generating the same video quality.
- Abstract(参考訳): ほとんどのニューラルビデオコーデックはPフレーム符号化(過去のフレームから各フレームを予測する)に対処するが、本稿ではBフレーム圧縮(過去の参照フレームと将来の参照フレームの両方を用いて予測する)に対処する。
我々のBフレームソリューションは既存のPフレーム方式に基づいている。
これにより、既存のニューラルコーデックにBフレーム符号化機能を容易に追加することができる。
Bフレーム符号化の基本的な考え方は、2つの参照フレームを補間して単一の参照フレームを生成し、既存のPフレームコーデックと組み合わせて入力Bフレームを符号化することである。
本研究は,従来のpフレームコーデックと比較して,補間フレームがpフレームコーデックの参照としてはるかに優れていることを示す。
その結果,提案手法を既存のpフレームコーデックと組み合わせると,pフレームコーデックと比較して,uvgデータセットのビットレートが28.5%削減できることがわかった。
関連論文リスト
- UCVC: A Unified Contextual Video Compression Framework with Joint
P-frame and B-frame Coding [29.44234507064189]
本稿では,第6回学習画像圧縮チャレンジ(CLIC)のビデオ圧縮トラックに対する学習ビデオ圧縮手法を提案する。
共同PフレームおよびBフレーム符号化のための統合文脈ビデオ圧縮フレームワーク(UCVC)を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:25:39Z) - IBVC: Interpolation-driven B-frame Video Compression [68.18440522300536]
Bフレームビデオ圧縮は、双方向動作推定と動き補償(MEMC)符号化をミドルフレーム再構成に適用することを目的としている。
従来の学習アプローチでは、しばしば双方向の光フロー推定に依存するニューラルネットワークのPフレームコーデックをBフレームに直接拡張する。
これらの問題に対処するために,IBVC (Interpolation-B-frame Video Compression) という単純な構造を提案する。
論文 参考訳(メタデータ) (2023-09-25T02:45:51Z) - FrameRS: A Video Frame Compression Model Composed by Self supervised
Video Frame Reconstructor and Key Frame Selector [9.896415488558036]
本稿では,フレーム再構成モデル FrameRS について述べる。
フレーム再構成器 FrameMAE は,Masked Autoencoder for Images (MAE) の原理をビデオコンテキストに適用することによって開発されている。
キーフレームセレクタであるFrame SelectorはCNNアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2023-09-16T19:30:05Z) - Butterfly: Multiple Reference Frames Feature Propagation Mechanism for
Neural Video Compression [17.073251238499314]
ニューラルビデオ圧縮のためのより合理的な多参照フレーム伝搬機構を提案する。
従来のSOTA(State-of-the-art)よりも優れています。
我々のニューラルデータセットは、基本的な単一参照フレームモデルと比較すると、HEVCクラスDで7.6%の節約を達成できる。
論文 参考訳(メタデータ) (2023-03-06T08:19:15Z) - Advancing Learned Video Compression with In-loop Frame Prediction [177.67218448278143]
本稿では,ループ内フレーム予測モジュールを用いたALVC(Advanced Learned Video Compression)アプローチを提案する。
予測フレームは、以前圧縮されたフレームよりも優れた参照として機能し、圧縮性能の恩恵を受けることができる。
本実験は,学習ビデオ圧縮におけるALVC手法の最先端性能を示すものである。
論文 参考訳(メタデータ) (2022-11-13T19:53:14Z) - B-CANF: Adaptive B-frame Coding with Conditional Augmented Normalizing
Flows [11.574465203875342]
この研究は、Bフレーム符号化のための条件付き拡張正規化フローを利用する、B-CANFと呼ばれる新しいBフレームコーディングフレームワークを導入する。
B-CANFはまた、フレーム型適応符号化とB*フレームという2つの新しい要素も備えている。
論文 参考訳(メタデータ) (2022-09-05T05:28:19Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - Asymmetric Bilateral Motion Estimation for Video Frame Interpolation [50.44508853885882]
非対称な左右運動推定(ABME)に基づく新しいビデオフレームアルゴリズムを提案する。
我々は左右対称運動場を予測してアンカーフレームを補間する。
アンカーフレームから入力フレームへの非対称な左右運動場を推定する。
第三に、非対称場を用いて入力フレームを後方にワープし、中間フレームを再構築する。
論文 参考訳(メタデータ) (2021-08-15T21:11:35Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z) - M-LVC: Multiple Frames Prediction for Learned Video Compression [111.50760486258993]
低レイテンシシナリオのためのエンドツーエンドの学習ビデオ圧縮方式を提案する。
提案方式では, 移動ベクトル(MV)場を現在のフレームと前のフレームの間で計算する。
実験の結果,提案手法は,低遅延モードにおける既存の学習ビデオ圧縮法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-21T20:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。