論文の概要: Video Super-Resolution with Long-Term Self-Exemplars
- arxiv url: http://arxiv.org/abs/2106.12778v1
- Date: Thu, 24 Jun 2021 06:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 15:09:00.259482
- Title: Video Super-Resolution with Long-Term Self-Exemplars
- Title(参考訳): 長期自己紹介によるビデオ超解像
- Authors: Guotao Meng, Yue Wu, Sijin Li, Qifeng Chen
- Abstract要約: 本稿では,長期的クロススケールアグリゲーションを用いたビデオ超解像法を提案する。
我々のモデルは、類似したパッチから派生した機能を融合するマルチ参照アライメントモジュールも構成している。
提案手法を評価するため,収集したCarCamデータセットとオープンデータセットについて広範な実験を行った。
- 参考スコア(独自算出の注目度): 38.81851816697984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing video super-resolution methods often utilize a few neighboring
frames to generate a higher-resolution image for each frame. However, the
redundant information between distant frames has not been fully exploited in
these methods: corresponding patches of the same instance appear across distant
frames at different scales. Based on this observation, we propose a video
super-resolution method with long-term cross-scale aggregation that leverages
similar patches (self-exemplars) across distant frames. Our model also consists
of a multi-reference alignment module to fuse the features derived from similar
patches: we fuse the features of distant references to perform high-quality
super-resolution. We also propose a novel and practical training strategy for
referenced-based super-resolution. To evaluate the performance of our proposed
method, we conduct extensive experiments on our collected CarCam dataset and
the Waymo Open dataset, and the results demonstrate our method outperforms
state-of-the-art methods. Our source code will be publicly available.
- Abstract(参考訳): 既存のビデオスーパーレゾリューション手法では、いくつかの隣接するフレームを使用して、各フレームの高解像度画像を生成することが多い。
しかし、遠隔フレーム間の冗長な情報はこれらの方法では十分に活用されておらず、異なるスケールで同じインスタンスのパッチが遠隔フレームにまたがって現れる。
そこで本研究では,遠隔フレームにまたがる類似のパッチ(自己紹介)を活用する,長期的クロススケールアグリゲーションを用いたビデオ超解像手法を提案する。
我々のモデルは、類似したパッチから派生した特徴を融合するマルチ参照アライメントモジュールで構成されており、高品質な超解像を実現するために、遠隔参照の特徴を融合する。
また,参照型超解像のための新しい実用的な学習戦略を提案する。
提案手法の性能を評価するために,収集したcarcamデータセットとwaymoオープンデータセットについて広範な実験を行い,本手法が最先端手法を上回ることを示す。
ソースコードは公開される予定だ。
関連論文リスト
- Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection [0.0]
コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
論文 参考訳(メタデータ) (2022-05-20T18:58:13Z) - Memory-Augmented Non-Local Attention for Video Super-Resolution [61.55700315062226]
低解像度(LR)ビデオから高忠実度高解像度(HR)ビデオを生成するための新しいビデオ超解法を提案する。
従来の方法は、主に時間的隣のフレームを利用して、現在のフレームの超解像を支援する。
対照的に、フレームアライメントなしでビデオの超解像を可能にするクロスフレーム非局所アテンション機構を考案する。
論文 参考訳(メタデータ) (2021-08-25T05:12:14Z) - ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring [92.40655035360729]
ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。
特徴空間におけるボケフレーム間の空間的対応を学習する新しい暗黙的手法を提案する。
提案手法は,新たに収集したビデオデブレーション用ハイフレームレート(1000fps)データセットとともに,広く採用されているDVDデータセット上で評価される。
論文 参考訳(メタデータ) (2021-03-07T04:33:13Z) - Video Super-Resolution with Recurrent Structure-Detail Network [120.1149614834813]
ほとんどのビデオ超解像法は、時間的スライディングウィンドウ内の隣接するフレームの助けを借りて単一の参照フレームを超解する。
本稿では,従来のフレームを有効かつ効率的に利用し,現行のフレームを超解する新しいビデオ超解法を提案する。
論文 参考訳(メタデータ) (2020-08-02T11:01:19Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。