論文の概要: A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2210.08229v1
- Date: Sat, 15 Oct 2022 08:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:00:04.288366
- Title: A Codec Information Assisted Framework for Efficient Compressed Video
Super-Resolution
- Title(参考訳): 高能率圧縮ビデオ超解像のためのコーデック情報支援フレームワーク
- Authors: Hengsheng Zhang, Xueyi Zou, Jiaming Guo, Youliang Yan, Rong Xie and Li
Song
- Abstract要約: リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
圧縮ビデオの繰り返しVSRモデルの高速化と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
- 参考スコア(独自算出の注目度): 15.690562510147766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online processing of compressed videos to increase their resolutions attracts
increasing and broad attention. Video Super-Resolution (VSR) using recurrent
neural network architecture is a promising solution due to its efficient
modeling of long-range temporal dependencies. However, state-of-the-art
recurrent VSR models still require significant computation to obtain a good
performance, mainly because of the complicated motion estimation for
frame/feature alignment and the redundant processing of consecutive video
frames. In this paper, considering the characteristics of compressed videos, we
propose a Codec Information Assisted Framework (CIAF) to boost and accelerate
recurrent VSR models for compressed videos. Firstly, the framework reuses the
coded video information of Motion Vectors to model the temporal relationships
between adjacent frames. Experiments demonstrate that the models with Motion
Vector based alignment can significantly boost the performance with negligible
additional computation, even comparable to those using more complex optical
flow based alignment. Secondly, by further making use of the coded video
information of Residuals, the framework can be informed to skip the computation
on redundant pixels. Experiments demonstrate that the proposed framework can
save up to 70% of the computation without performance drop on the REDS4 test
videos encoded by H.264 when CRF is 23.
- Abstract(参考訳): 圧縮ビデオのオンライン処理による解像度向上が注目されている。
リカレントニューラルネットワークアーキテクチャを用いたビデオ超解法(VSR)は、長距離時間依存性の効率的なモデリングのため、有望なソリューションである。
しかし、フレーム/フィーチャーアライメントの複雑な動き推定と連続するビデオフレームの冗長な処理が主な原因で、最先端のVSRモデルでも優れた性能を得るためには大きな計算を必要とする。
本稿では,圧縮ビデオの特徴を考慮し,圧縮ビデオの繰り返しVSRモデルの向上と高速化を目的としたコーデック情報支援フレームワーク(CIAF)を提案する。
まず,動きベクトルの符号化映像情報を再利用し,隣接フレーム間の時間関係をモデル化する。
実験により、動きベクトルに基づくアライメントを持つモデルは、より複雑な光フローベースのアライメントを使用するモデルに匹敵するものであっても、無視できる追加計算でパフォーマンスを著しく向上させることができることが示されている。
次に、残差の符号化ビデオ情報を利用することにより、冗長画素の計算をスキップするようにフレームワークに通知することができる。
CRFが23のとき、H.264で符号化されたREDS4テストビデオのパフォーマンス低下なしに、提案したフレームワークは最大70%の計算時間を節約できることを示した。
関連論文リスト
- High-Efficiency Neural Video Compression via Hierarchical Predictive Learning [27.41398149573729]
強化されたDeep Hierarchical Video Compression(DHVC 2.0)は、優れた圧縮性能と目覚ましい複雑さの効率を導入する。
階層的な予測符号化を使用して、各ビデオフレームをマルチスケール表現に変換する。
トランスミッションフレンドリーなプログレッシブデコーディングをサポートしており、パケットロスの存在下では特にネットワーク化されたビデオアプリケーションに有利である。
論文 参考訳(メタデータ) (2024-10-03T15:40:58Z) - FFNeRV: Flow-Guided Frame-Wise Neural Representations for Videos [5.958701846880935]
ビデオ中のフレーム間の時間的冗長性を利用するために,フロー情報をフレームワイズ表現に組み込む新しい手法であるFFNeRVを提案する。
モデル圧縮技術により、FFNeRVは広く使われている標準ビデオコーデック(H.264とHEVC)より優れ、最先端のビデオ圧縮アルゴリズムと同等に動作する。
論文 参考訳(メタデータ) (2022-12-23T12:51:42Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - Learning to Compress Videos without Computing Motion [39.46212197928986]
動き推定を必要としない新しいディープラーニングビデオ圧縮アーキテクチャを提案する。
本フレームワークでは,映像のフレーム差分を映像表現として利用することにより,映像の動きに固有の規則性を利用する。
実験の結果,Motionless VIdeo Codec (MOVI-Codec) と呼ばれる圧縮モデルは,動きを計算せずに効率的に動画を圧縮する方法を学習することがわかった。
論文 参考訳(メタデータ) (2020-09-29T15:49:25Z) - Learning for Video Compression with Recurrent Auto-Encoder and Recurrent
Probability Model [164.7489982837475]
本稿では、リカレントオートエンコーダ(RAE)とリカレント確率モデル(RPM)を用いたリカレントラーニングビデオ圧縮(RLVC)手法を提案する。
RAEは、ビデオフレーム間の時間的相関を利用するために、エンコーダとデコーダの両方で繰り返しセルを使用する。
提案手法は,PSNRとMS-SSIMの両方の観点から,最先端の学習ビデオ圧縮性能を実現する。
論文 参考訳(メタデータ) (2020-06-24T08:46:33Z) - Deep Space-Time Video Upsampling Networks [47.62807427163614]
ビデオ超解像(VSR)とフレーム(FI)は伝統的なコンピュータビジョンの問題である。
本稿では, VSR と FI を効率よく融合して, 時空ビデオアップサンプリングを行うためのエンドツーエンドフレームワークを提案する。
その結果, 時間(x7速)とパラメータ数(30%)を基準線と比較し, 定量的, 質的にも良好な結果が得られた。
論文 参考訳(メタデータ) (2020-04-06T07:04:21Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。