論文の概要: Video Super-Resolution with Recurrent Structure-Detail Network
- arxiv url: http://arxiv.org/abs/2008.00455v1
- Date: Sun, 2 Aug 2020 11:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:47:11.622724
- Title: Video Super-Resolution with Recurrent Structure-Detail Network
- Title(参考訳): Recurrent Structure-Detail Network を用いたビデオ超解像
- Authors: Takashi Isobe, Xu Jia, Shuhang Gu, Songjiang Li, Shengjin Wang, Qi
Tian
- Abstract要約: ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
本稿では,従来のフレームを有効かつ効率的に利用し,現行のフレームを超解する新しいビデオ超解法を提案する。
- 参考スコア(独自算出の注目度): 120.1149614834813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most video super-resolution methods super-resolve a single reference frame
with the help of neighboring frames in a temporal sliding window. They are less
efficient compared to the recurrent-based methods. In this work, we propose a
novel recurrent video super-resolution method which is both effective and
efficient in exploiting previous frames to super-resolve the current frame. It
divides the input into structure and detail components which are fed to a
recurrent unit composed of several proposed two-stream structure-detail blocks.
In addition, a hidden state adaptation module that allows the current frame to
selectively use information from hidden state is introduced to enhance its
robustness to appearance change and error accumulation. Extensive ablation
study validate the effectiveness of the proposed modules. Experiments on
several benchmark datasets demonstrate the superior performance of the proposed
method compared to state-of-the-art methods on video super-resolution.
- Abstract(参考訳): ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
リカレントベースのメソッドに比べて効率が低くなります。
そこで本研究では,従来のフレームを有効かつ効率的に利用し,現在のフレームを超解するビデオ超解法を提案する。
入力を、複数の提案された2ストリーム構造-詳細ブロックからなる繰り返しユニットに供給される構造と詳細コンポーネントに分割する。
また、現在のフレームが隠蔽状態からの情報を選択的に使用できるようにする隠蔽状態適応モジュールを導入し、外観変化やエラー蓄積に対する堅牢性を高める。
広範なアブレーション実験により,提案モジュールの有効性が検証された。
いくつかのベンチマークデータセットの実験は、ビデオ超解像における最先端手法と比較して提案手法の優れた性能を示す。
関連論文リスト
- Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z) - Video Super-Resolution with Long-Term Self-Exemplars [38.81851816697984]
本稿では,長期的クロススケールアグリゲーションを用いたビデオ超解像法を提案する。
我々のモデルは、類似したパッチから派生した機能を融合するマルチ参照アライメントモジュールも構成している。
提案手法を評価するため,収集したCarCamデータセットとオープンデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-24T06:07:13Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。