論文の概要: Fast Online Video Super-Resolution with Deformable Attention Pyramid
- arxiv url: http://arxiv.org/abs/2202.01731v1
- Date: Thu, 3 Feb 2022 17:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 14:48:41.546853
- Title: Fast Online Video Super-Resolution with Deformable Attention Pyramid
- Title(参考訳): 変形性アテンションピラミッドを用いた高速オンラインビデオ超解像
- Authors: Dario Fuoli, Martin Danelljan, Radu Timofte, Luc Van Gool
- Abstract要約: ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 172.16491820970646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution (VSR) has many applications that pose strict causal,
real-time, and latency constraints, including video streaming and TV. We
address the VSR problem under these settings, which poses additional important
challenges since information from future frames are unavailable. Importantly,
designing efficient, yet effective frame alignment and fusion modules remain
central problems. In this work, we propose a recurrent VSR architecture based
on a deformable attention pyramid (DAP). Our DAP aligns and integrates
information from the recurrent state into the current frame prediction. To
circumvent the computational cost of traditional attention-based methods, we
only attend to a limited number of spatial locations, which are dynamically
predicted by the DAP. Comprehensive experiments and analysis of the proposed
key innovations show the effectiveness of our approach. We significantly reduce
processing time in comparison to state-of-the-art methods, while maintaining a
high performance. We surpass state-of-the-art method EDVR-M on two standard
benchmarks with a speed-up of over 3x.
- Abstract(参考訳): ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
これらの設定下でのVSR問題に対処し、将来のフレームからの情報が利用できないため、さらなる重要な課題を提起する。
重要なのは、効率的かつ効果的なフレームアライメントと融合モジュールの設計だ。
本稿では,変形性アテンションピラミッド(DAP)に基づく再帰型VSRアーキテクチャを提案する。
DAPは、リカレント状態からの情報を現在のフレーム予測に調整し、統合します。
従来の注目手法の計算コストを回避するため,DAPによって動的に予測される空間的位置の限られた数にのみ参加する。
提案する重要なイノベーションの総合的な実験と分析は、我々のアプローチの有効性を示している。
高い性能を維持しながら,最先端手法と比較して処理時間を著しく短縮する。
我々は,3倍以上のスピードアップを持つ2つの標準ベンチマークにおいて,最先端のEDVR-Mを超越した。
関連論文リスト
- Can SAM Boost Video Super-Resolution? [78.29033914169025]
単純な有効モジュールであるSAM-guidEd refinEment Module (SEEM)を提案する。
この軽量プラグインモジュールは、セマンティック・アウェア機能の生成にアテンションメカニズムを活用するように設計されている。
我々はSEEMをEDVRとBasicVSRの2つの代表的手法に適用し、最小限の実装労力で継続的に性能を向上する。
論文 参考訳(メタデータ) (2023-05-11T02:02:53Z) - Sliding Window Recurrent Network for Efficient Video Super-Resolution [0.0]
ビデオ超解像(VSR)は、高解像度のフレームを低解像度の入力列から復元するタスクである。
本研究では,テキストスライディングウィンドウをベースとしたリカレントネットワーク(SWRN)を提案する。
筆者らはREDSデータセットを用いて,提案手法をモバイルデバイスに適用し,視覚的に快適な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-08-24T15:23:44Z) - STDAN: Deformable Attention Network for Space-Time Video
Super-Resolution [39.18399652834573]
本稿では,STDAN と呼ばれる,STVSR のための変形可能なアテンションネットワークを提案する。
まず、より近隣の入力フレームから豊富なコンテンツを得ることができるLSTFI(long-short term feature)モジュールを考案する。
第2に,空間的・時間的文脈を適応的に捕捉・集約する時空間変形可能特徴集合(STDFA)モジュールを提案する。
論文 参考訳(メタデータ) (2022-03-14T03:40:35Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Deep Space-Time Video Upsampling Networks [47.62807427163614]
ビデオ超解像(VSR)とフレーム(FI)は伝統的なコンピュータビジョンの問題である。
本稿では, VSR と FI を効率よく融合して, 時空ビデオアップサンプリングを行うためのエンドツーエンドフレームワークを提案する。
その結果, 時間(x7速)とパラメータ数(30%)を基準線と比較し, 定量的, 質的にも良好な結果が得られた。
論文 参考訳(メタデータ) (2020-04-06T07:04:21Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。