論文の概要: NAFSSR: Stereo Image Super-Resolution Using NAFNet
- arxiv url: http://arxiv.org/abs/2204.08714v1
- Date: Tue, 19 Apr 2022 07:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 14:28:36.039462
- Title: NAFSSR: Stereo Image Super-Resolution Using NAFNet
- Title(参考訳): NAFSSR:NAFNetを用いたステレオ画像超解像
- Authors: Xiaojie Chu, Liangyu Chen, Wenqing Yu
- Abstract要約: 本稿では,単一視点特徴抽出のための強靭で単純な画像復元モデルであるNAFNetを継承する。
ビュー間で機能を融合して双眼鏡シナリオに適応するために、クロスアテンションモジュールを追加することで拡張します。
NAFSSRでは、NTIRE 2022 Stereo Image Super- resolution Challengeで1位を獲得した。
- 参考スコア(独自算出の注目度): 3.703920945313331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo image super-resolution aims at enhancing the quality of
super-resolution results by utilizing the complementary information provided by
binocular systems. To obtain reasonable performance, most methods focus on
finely designing modules, loss functions, and etc. to exploit information from
another viewpoint. This has the side effect of increasing system complexity,
making it difficult for researchers to evaluate new ideas and compare methods.
This paper inherits a strong and simple image restoration model, NAFNet, for
single-view feature extraction and extends it by adding cross attention modules
to fuse features between views to adapt to binocular scenarios. The proposed
baseline for stereo image super-resolution is noted as NAFSSR. Furthermore,
training/testing strategies are proposed to fully exploit the performance of
NAFSSR. Extensive experiments demonstrate the effectiveness of our method. In
particular, NAFSSR outperforms the state-of-the-art methods on the KITTI 2012,
KITTI 2015, Middlebury, and Flickr1024 datasets. With NAFSSR, we won 1st place
in the NTIRE 2022 Stereo Image Super-resolution Challenge. Codes and models
will be released at https://github.com/megvii-research/NAFNet.
- Abstract(参考訳): ステレオ画像超解像は、双眼鏡システムが提供する補完情報を利用して、超解像結果の品質を高めることを目的としている。
妥当な性能を得るために、ほとんどの手法はモジュールや損失関数などを微妙に設計することに集中し、他の視点から情報を利用する。
これはシステムの複雑さを増大させる副作用であり、研究者が新しいアイデアを評価し、方法を比較するのが難しくなる。
本稿では,単一視点特徴抽出のための強固でシンプルな画像復元モデルnafnetを継承し,視点間の特徴を融合して両眼的シナリオに適応させるクロスアテンションモジュールを追加した。
ステレオ画像超解像のベースラインはNAFSSRとして注目されている。
さらに、NAFSSRの性能を完全に活用するためのトレーニング/テスト戦略が提案されている。
広範な実験により本手法の有効性が実証された。
特にNAFSSRは、KITTI 2012、KITTI 2015、Middlebury、Flickr1024データセットで最先端の手法より優れている。
NAFSSRでは、NTIRE 2022 Stereo Image Super- resolution Challengeで1位を獲得した。
コードとモデルはhttps://github.com/megvii-research/NAFNetで公開される。
関連論文リスト
- RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - Better "CMOS" Produces Clearer Images: Learning Space-Variant Blur
Estimation for Blind Image Super-Resolution [30.816546273417774]
我々は、空のぼかしを持つ2つの新しいデータセット、すなわちNYUv2-BSRとCityscapes-BSRを導入する。
データセットに基づいて,ブラーとセマンティクスを同時に推定するクロスモーダルファシオンネットワーク(CMOS)を設計する。
論文 参考訳(メタデータ) (2023-04-07T08:40:31Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Single Image Internal Distribution Measurement Using Non-Local
Variational Autoencoder [11.985083962982909]
本稿では,非局所変分オートエンコーダ(textttNLVAE)という画像固有解を提案する。
textttNLVAEは,非局所領域からの非絡み合った情報を用いて高解像度画像を再構成する自己教師型戦略として導入された。
7つのベンチマークデータセットによる実験結果から,textttNLVAEモデルの有効性が示された。
論文 参考訳(メタデータ) (2022-04-02T18:43:55Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - HighRes-net: Recursive Fusion for Multi-Frame Super-Resolution of
Satellite Imagery [55.253395881190436]
MFSR(Multi-frame Super-Resolution)は、問題に対するより根底的なアプローチを提供する。
これは、地球上の人間の影響を衛星で観測する上で重要である。
我々は,MFSRにおける最初のディープラーニングアプローチであるHighRes-netを紹介し,そのサブタスクをエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-02-15T22:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。