論文の概要: LMR: A Large-Scale Multi-Reference Dataset for Reference-based
Super-Resolution
- arxiv url: http://arxiv.org/abs/2303.04970v1
- Date: Thu, 9 Mar 2023 01:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 16:31:34.725551
- Title: LMR: A Large-Scale Multi-Reference Dataset for Reference-based
Super-Resolution
- Title(参考訳): LMR: 参照型スーパーリゾリューションのための大規模マルチリファレンスデータセット
- Authors: Lin Zhang, Xin Li, Dongliang He, Errui Ding, Zhaoxiang Zhang
- Abstract要約: 参照ベース超解像(RefSR)は、単一の画像超解像(SISR)と比較して、類似した高品質な画像を参照することで優れた結果が得られると広く合意されている。
以前のRefSR手法はすべて単一参照イメージトレーニングに重点を置いているが、複数の参照イメージはテストや実用的なアプリケーションでしばしば利用できる。
我々はLMRと呼ばれる大規模なマルチ参照超解像データセットを構築し、300x300のトレーニング画像の112,142グループを含み、これは既存の最大のRefSRデータセットの10倍である。
- 参考スコア(独自算出の注目度): 86.81241084950524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is widely agreed that reference-based super-resolution (RefSR) achieves
superior results by referring to similar high quality images, compared to
single image super-resolution (SISR). Intuitively, the more references, the
better performance. However, previous RefSR methods have all focused on
single-reference image training, while multiple reference images are often
available in testing or practical applications. The root cause of such
training-testing mismatch is the absence of publicly available multi-reference
SR training datasets, which greatly hinders research efforts on multi-reference
super-resolution. To this end, we construct a large-scale, multi-reference
super-resolution dataset, named LMR. It contains 112,142 groups of 300x300
training images, which is 10x of the existing largest RefSR dataset. The image
size is also much larger. More importantly, each group is equipped with 5
reference images with different similarity levels. Furthermore, we propose a
new baseline method for multi-reference super-resolution: MRefSR, including a
Multi-Reference Attention Module (MAM) for feature fusion of an arbitrary
number of reference images, and a Spatial Aware Filtering Module (SAFM) for the
fused feature selection. The proposed MRefSR achieves significant improvements
over state-of-the-art approaches on both quantitative and qualitative
evaluations. Our code and data would be made available soon.
- Abstract(参考訳): 参照ベーススーパーレゾリューション(refsr)は、単一画像スーパーレゾリューション(sisr)と比較して、同様の高品質画像を参照することで優れた結果が得られると広く認識されている。
直感的には、参照が多ければ多いほどパフォーマンスが良くなる。
しかし、以前のRefSR手法はいずれも単一参照画像トレーニングに重点を置いており、複数の参照画像はテストや実用的なアプリケーションでしばしば利用できる。
このようなトレーニングテストミスマッチの根本原因は、公開されているマルチ参照SRトレーニングデータセットがないことである。
この目的のために,LMRと呼ばれる大規模マルチ参照超解像データセットを構築した。
300x300のトレーニングイメージの112,142グループが含まれており、これは既存の最大のRefSRデータセットの10倍である。
画像サイズもはるかに大きい。
さらに重要なことに、それぞれのグループには、異なる類似度を持つ5つの参照画像がある。
MRefSRは、任意の数の参照画像の特徴融合のためのマルチ参照注意モジュール(MAM)と、融合した特徴選択のための空間アウェアフィルタリングモジュール(SAFM)を含む、マルチ参照超解像のための新しいベースライン手法を提案する。
提案したMRefSRは,定量評価と定性評価の両面において,最先端のアプローチよりも大幅に改善されている。
コードとデータはすぐに手に入るでしょう。
関連論文リスト
- A New Dataset and Framework for Real-World Blurred Images Super-Resolution [9.122275433854062]
我々は,Real-world Blur-kept Super-Resolution (ReBlurSR) データセットという,ぼやけた画像に適した新しい超解像データセットを開発した。
本稿では,Cross Disentanglement Module (CDM) とCross Fusion Module (CFM) の2つの主要モジュールからなるPerceptual-Blur-adaptive Super-Resolution (PBaSR)を提案する。
これら2つのモジュールを統合することで、PBaSRは、追加の推論やデプロイメントコストを伴わずに、一般的なデータと曖昧なデータの両方でコメンタブルなパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-07-20T14:07:03Z) - Multi-Reference Image Super-Resolution: A Posterior Fusion Approach [0.3867363075280544]
本稿では,RefSRモデルの出力と複数の参照を組み合わせた2段階後核融合法を提案する。
CUFED5データセットの実験により、提案手法が様々な最先端のRefSRモデルに適用され、画像品質が一貫した改善が得られた。
論文 参考訳(メタデータ) (2022-12-20T04:15:03Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Geometry-Aware Reference Synthesis for Multi-View Image Super-Resolution [16.68091352547819]
MVISR(Multi-View Image Super-Resolution)タスクは、同じシーンから撮影されたマルチビュー画像の解像度を高めることを目的としている。
1つの解決策は、低解像度(LR)入力ビューからHR結果を再構成するために画像またはビデオ超解像(SR)手法を適用することである。
本稿では、幾何情報を用いて全てのLRマルチビューからシャープな詳細を抽出し、LR入力ビューのSRをサポートするMVSRnetを提案する。
論文 参考訳(メタデータ) (2022-07-18T13:46:47Z) - Attention-based Multi-Reference Learning for Image Super-Resolution [29.361342747786164]
本稿では,新しいアテンションに基づくマルチ参照超解像ネットワークを提案する。
類似したテクスチャを複数の参照画像から超解像出力に適応的に転送する。
最先端の参照超解像法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2021-08-31T09:12:26Z) - Variational AutoEncoder for Reference based Image Super-Resolution [27.459299640768773]
本稿では,任意の画像がスーパーレゾリューションの参照として機能する参照ベース画像スーパーレゾリューションを提案する。
ランダムマップや低解像度画像自体を使用しても、提案したRefVAEは、超解像への参照から知識を転送することができる。
論文 参考訳(メタデータ) (2021-06-08T04:12:38Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - DDet: Dual-path Dynamic Enhancement Network for Real-World Image
Super-Resolution [69.2432352477966]
実画像超解像(Real-SR)は、実世界の高分解能画像(HR)と低分解能画像(LR)の関係に焦点を当てている。
本稿では,Real-SRのためのデュアルパス動的拡張ネットワーク(DDet)を提案する。
特徴表現のための大規模な畳み込みブロックを積み重ねる従来の手法とは異なり、非一貫性のある画像対を研究するためのコンテンツ認識フレームワークを導入する。
論文 参考訳(メタデータ) (2020-02-25T18:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。