論文の概要: MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution
- arxiv url: http://arxiv.org/abs/2007.11803v1
- Date: Thu, 23 Jul 2020 05:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:29:14.291193
- Title: MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution
- Title(参考訳): MuCAN:ビデオスーパーリゾリューションのためのマルチ対応アグリゲーションネットワーク
- Authors: Wenbo Li, Xin Tao, Taian Guo, Lu Qi, Jiangbo Lu, and Jiaya Jia
- Abstract要約: ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
- 参考スコア(独自算出の注目度): 63.02785017714131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video super-resolution (VSR) aims to utilize multiple low-resolution frames
to generate a high-resolution prediction for each frame. In this process,
inter- and intra-frames are the key sources for exploiting temporal and spatial
information. However, there are a couple of limitations for existing VSR
methods. First, optical flow is often used to establish temporal
correspondence. But flow estimation itself is error-prone and affects recovery
results. Second, similar patterns existing in natural images are rarely
exploited for the VSR task. Motivated by these findings, we propose a temporal
multi-correspondence aggregation strategy to leverage similar patches across
frames, and a cross-scale nonlocal-correspondence aggregation scheme to explore
self-similarity of images across scales. Based on these two new modules, we
build an effective multi-correspondence aggregation network (MuCAN) for VSR.
Our method achieves state-of-the-art results on multiple benchmark datasets.
Extensive experiments justify the effectiveness of our method.
- Abstract(参考訳): ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
この過程において、フレーム間およびフレーム内は、時間的および空間的情報を利用するための重要な情報源である。
しかしながら、既存のVSRメソッドにはいくつかの制限がある。
第一に、光流はしばしば時間対応を確立するために用いられる。
しかし、フロー推定自体がエラーを起こし、回復結果に影響を及ぼす。
第二に、自然画像に類似したパターンがVSRタスクに利用されることは滅多にない。
そこで本研究では,フレーム間の類似のパッチを利用する時間的マルチ対応アグリゲーション戦略と,スケール間の画像の自己相似性を探索する大規模非局所対応アグリゲーションスキームを提案する。
これら2つの新しいモジュールに基づいて、VSRのための効果的なマルチ対応集約ネットワーク(MuCAN)を構築する。
提案手法は,複数のベンチマークデータセットの最先端結果を実現する。
大規模な実験は我々の方法の有効性を正当化する。
関連論文リスト
- Learning from Multi-Perception Features for Real-Word Image
Super-resolution [87.71135803794519]
入力画像の複数の知覚的特徴を利用する新しいSR手法MPF-Netを提案する。
本稿では,MPFEモジュールを組み込んで,多様な知覚情報を抽出する手法を提案する。
また、モデルの学習能力を向上する対照的な正規化項(CR)も導入する。
論文 参考訳(メタデータ) (2023-05-26T07:35:49Z) - Look Back and Forth: Video Super-Resolution with Explicit Temporal
Difference Modeling [105.69197687940505]
本稿では,LR空間とHR空間における時間差の明示的モデル化の役割について検討する。
超解像結果をさらに高めるために、空間残留特徴を抽出するだけでなく、高周波領域における連続フレーム間の差も計算する。
論文 参考訳(メタデータ) (2022-04-14T17:07:33Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - Group-based Bi-Directional Recurrent Wavelet Neural Networks for Video
Super-Resolution [4.9136996406481135]
ビデオ超解像(VSR)は、低解像度(LR)フレームから高解像度(HR)フレームを推定することを目的としている。
VSRの鍵となる課題は、フレーム内の空間的相関と連続フレーム間の時間的依存を効果的に活用することにある。
論文 参考訳(メタデータ) (2021-06-14T06:36:13Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。