論文の概要: EFENet: Reference-based Video Super-Resolution with Enhanced Flow
Estimation
- arxiv url: http://arxiv.org/abs/2110.07797v1
- Date: Fri, 15 Oct 2021 01:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 04:39:17.935207
- Title: EFENet: Reference-based Video Super-Resolution with Enhanced Flow
Estimation
- Title(参考訳): EFENet:フロー推定を改良した参照型ビデオ超解法
- Authors: Yaping Zhao, Mengqi Ji, Ruqi Huang, Bin Wang, Shengjin Wang
- Abstract要約: 本稿では,HR参照に含まれる視覚的手がかりとLRシーケンスに含まれる時間的情報とを同時に活用するEFENetを提案する。
提案手法の有効性を検証し,提案手法が最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 33.170496636269114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider the problem of reference-based video
super-resolution(RefVSR), i.e., how to utilize a high-resolution (HR) reference
frame to super-resolve a low-resolution (LR) video sequence. The existing
approaches to RefVSR essentially attempt to align the reference and the input
sequence, in the presence of resolution gap and long temporal range. However,
they either ignore temporal structure within the input sequence, or suffer
accumulative alignment errors. To address these issues, we propose EFENet to
exploit simultaneously the visual cues contained in the HR reference and the
temporal information contained in the LR sequence. EFENet first globally
estimates cross-scale flow between the reference and each LR frame. Then our
novel flow refinement module of EFENet refines the flow regarding the furthest
frame using all the estimated flows, which leverages the global temporal
information within the sequence and therefore effectively reduces the alignment
errors. We provide comprehensive evaluations to validate the strengths of our
approach, and to demonstrate that the proposed framework outperforms the
state-of-the-art methods. Code is available at
https://github.com/IndigoPurple/EFENet.
- Abstract(参考訳): 本稿では,レファレンスに基づくビデオスーパーレゾリューション(RefVSR)の問題,すなわち,高分解能(HR)参照フレームを用いて低分解能(LR)ビデオシーケンスを超分解する方法を考える。
RefVSRに対する既存のアプローチは、基本的には、解像度ギャップと長い時間範囲の存在下で、参照と入力シーケンスを整列させようとする。
しかし、入力シーケンス内の時間的構造を無視するか、累積的アライメントエラーを被る。
これらの問題に対処するために、HR参照に含まれる視覚的手がかりとLRシーケンスに含まれる時間的情報とを同時に活用するEFENetを提案する。
EFENetはまず、参照と各LRフレーム間のクロススケールフローを世界規模で推定する。
EFENetの新たなフローリファインメントモジュールは,すべての推定フローを用いてファテストフレームのフローを洗練し,シーケンス内の大域的時間情報を活用することにより,アライメントエラーを効果的に低減する。
我々は,提案手法の強みを検証するための総合的な評価を行い,提案手法が最先端手法よりも優れていることを示す。
コードはhttps://github.com/IndigoPurple/EFENetで入手できる。
関連論文リスト
- Sparse Global Matching for Video Frame Interpolation with Large Motion [20.49084881829404]
大きな動きはビデオフレーム補間(VFI)タスクにおいて重要な課題となる。
既存の手法は、しばしば制限された受容場によって制約されるため、大きな動きを持つシナリオを扱う際の準最適性能をもたらす。
我々はVFIのための新しいパイプラインを導入し、グローバルレベルの情報を効果的に統合し、大きな動きに関連する問題を緩和する。
論文 参考訳(メタデータ) (2024-04-10T11:06:29Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - Local-Global Temporal Difference Learning for Satellite Video
Super-Resolution [55.69322525367221]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Temporal Consistency Learning of inter-frames for Video Super-Resolution [38.26035126565062]
ビデオ超解像(VSR)は、低解像度(LR)参照フレームと複数の隣接フレームから高解像度(HR)フレームを再構成することを目的としたタスクである。
既存の手法は一般に情報伝達とフレームアライメントを探求し、VSRの性能を向上させる。
本稿では,再建されたビデオの一貫性を高めるため,VSRのための時間一貫性学習ネットワーク(TCNet)を提案する。
論文 参考訳(メタデータ) (2022-11-03T08:23:57Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - FDAN: Flow-guided Deformable Alignment Network for Video
Super-Resolution [12.844337773258678]
変形可能なコンボリューションに光流を統合するために,フロー誘導変形モジュール (FDM) を提案する。
FDANは、2つのベンチマークデータセットで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-05-12T13:18:36Z) - Video Super-Resolution with Recurrent Structure-Detail Network [120.1149614834813]
ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
本稿では,従来のフレームを有効かつ効率的に利用し,現行のフレームを超解する新しいビデオ超解法を提案する。
論文 参考訳(メタデータ) (2020-08-02T11:01:19Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。