論文の概要: A Feature Reuse Framework with Texture-adaptive Aggregation for
Reference-based Super-Resolution
- arxiv url: http://arxiv.org/abs/2306.01500v1
- Date: Fri, 2 Jun 2023 12:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 15:02:19.833342
- Title: A Feature Reuse Framework with Texture-adaptive Aggregation for
Reference-based Super-Resolution
- Title(参考訳): 参照型スーパーリゾリューションのためのテクスチャ適応アグリゲーションを用いた特徴再利用フレームワーク
- Authors: Xiaoyong Mei, Yi Yang, Ming Li, Changqin Huang, Kai Zhang, Pietro
Li\'o
- Abstract要約: 参照ベース超解像(RefSR)は超解像の分野で大きな成功を収めている。
本稿では,ステップバイステップのテクスチャ再構築プロセスをガイドする機能再利用フレームワークを提案する。
単一画像特徴埋め込みモジュールとテクスチャ適応アグリゲーションモジュールを導入する。
- 参考スコア(独自算出の注目度): 29.57364804554312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reference-based super-resolution (RefSR) has gained considerable success in
the field of super-resolution with the addition of high-resolution reference
images to reconstruct low-resolution (LR) inputs with more high-frequency
details, thereby overcoming some limitations of single image super-resolution
(SISR). Previous research in the field of RefSR has mostly focused on two
crucial aspects. The first is accurate correspondence matching between the LR
and the reference (Ref) image. The second is the effective transfer and
aggregation of similar texture information from the Ref images. Nonetheless, an
important detail of perceptual loss and adversarial loss has been
underestimated, which has a certain adverse effect on texture transfer and
reconstruction. In this study, we propose a feature reuse framework that guides
the step-by-step texture reconstruction process through different stages,
reducing the negative impacts of perceptual and adversarial loss. The feature
reuse framework can be used for any RefSR model, and several RefSR approaches
have improved their performance after being retrained using our framework.
Additionally, we introduce a single image feature embedding module and a
texture-adaptive aggregation module. The single image feature embedding module
assists in reconstructing the features of the LR inputs itself and effectively
lowers the possibility of including irrelevant textures. The texture-adaptive
aggregation module dynamically perceives and aggregates texture information
between the LR inputs and the Ref images using dynamic filters. This enhances
the utilization of the reference texture while reducing reference misuse. The
source code is available at https://github.com/Yi-Yang355/FRFSR.
- Abstract(参考訳): 参照ベース超解像(RefSR)は、高分解能参照画像を追加し、低分解能(LR)入力をより高周波で再構成し、単一画像超解像(SISR)の限界を克服することで、超解像の分野で大きな成功を収めている。
RefSRの分野におけるこれまでの研究は主に2つの重要な側面に焦点を当ててきた。
1つ目は、LRと参照(Ref)画像との正確な対応である。
2つ目は、Ref画像から類似したテクスチャ情報の効果的転送と集約である。
それにもかかわらず、知覚的損失と敵対的損失の重要な詳細は過小評価されており、テクスチャーの伝達と再構築に一定の悪影響を及ぼす。
本研究では,異なる段階のテクスチャ再構築過程を段階的にガイドする機能再利用フレームワークを提案し,知覚的・対角的損失の負の影響を低減した。
機能再利用フレームワークは、任意のRefSRモデルに使用することができ、いくつかのRefSRアプローチは、我々のフレームワークを使用して再トレーニングされた後、パフォーマンスを改善した。
さらに,単一の画像特徴埋め込みモジュールとテクスチャ対応アグリゲーションモジュールを導入する。
単一の画像特徴埋め込みモジュールは、LR入力自体の特徴の再構築を支援し、無関係なテクスチャを含む可能性を効果的に低下させる。
テクスチャ適応集約モジュールは、動的フィルタを用いてLR入力とRef画像との間のテクスチャ情報を動的に知覚、集約する。
これにより、参照誤用を低減しつつ、参照テクスチャの利用が向上する。
ソースコードはhttps://github.com/yi-yang355/frfsrで入手できる。
関連論文リスト
- Detail-Enhancing Framework for Reference-Based Image Super-Resolution [8.899312174844725]
参照型超解像のためのDEF(Detail-Enhancing Framework)を提案する。
提案手法は,比較した数値結果を維持しながら,優れた視覚的結果が得られる。
論文 参考訳(メタデータ) (2024-05-01T10:27:22Z) - Bridging the Domain Gap: A Simple Domain Matching Method for
Reference-based Image Super-Resolution in Remote Sensing [8.36527949191506]
近年、参照ベース画像超解像(RefSR)は、画像超解像(SR)タスクにおいて優れた性能を示している。
既存のRefSRモデルとシームレスに統合可能なドメインマッチング(DM)モジュールを導入する。
我々の分析では、これらの領域のギャップは異なる衛星でしばしば生じており、我々のモデルはこれらの課題に効果的に対処している。
論文 参考訳(メタデータ) (2024-01-29T08:10:00Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - RRSR:Reciprocal Reference-based Image Super-Resolution with Progressive
Feature Alignment and Selection [66.08293086254851]
本稿では,RefSRネットワークの学習を強化するための相互学習フレームワークを提案する。
新たに提案したモジュールは,マルチスケールの特徴空間に参照入力画像をアライメントし,参照認識機能の選択を行う。
我々は,最近のRefSRモデルが相互学習パラダイムによって一貫した改善が可能であることを実証的に示す。
論文 参考訳(メタデータ) (2022-11-08T12:39:35Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - MASA-SR: Matching Acceleration and Spatial Adaptation for
Reference-Based Image Super-Resolution [74.24676600271253]
本稿では、RefSRのためのMASAネットワークを提案し、これらの問題に対処するために2つの新しいモジュールを設計する。
提案したMatch & extract Moduleは、粗大な対応マッチング方式により計算コストを大幅に削減する。
空間適応モジュールは、LR画像とRef画像の分布の差を学習し、Ref特徴の分布を空間適応的にLR特徴の分布に再マップする。
論文 参考訳(メタデータ) (2021-06-04T07:15:32Z) - Learning Texture Transformer Network for Image Super-Resolution [47.86443447491344]
画像超解像のためのテクスチュアトランスフォーマネットワーク(TTSR)を提案する。
TTSRは画像生成タスクに最適化された4つの近縁なモジュールで構成されている。
TTSRは、定量評価と定性評価の両方において最先端のアプローチよりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-06-07T12:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。