論文の概要: High-Similarity-Pass Attention for Single Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2305.15768v1
- Date: Thu, 25 May 2023 06:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:54:59.616335
- Title: High-Similarity-Pass Attention for Single Image Super-Resolution
- Title(参考訳): 単一画像超解像に対する高相似度注意法
- Authors: Jian-Nan Su, Min Gan, Guang-Yong Chen, Wenzhong Guo, C. L. Philip Chen
- Abstract要約: 非局所的注意(NLA)分野における最近の進歩は、自己相似性に基づく単一画像超解像(SISR)への新たな関心につながっている。
高相似性パスアテンション(HSPA)を得るための簡潔で効果的なソフトしきい値設定操作を導入する。
HSPAの有効性を実証するため,我々はHSPAN(Deep High-Similarity-pass attention network)を構築した。
- 参考スコア(独自算出の注目度): 81.56822938033118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in the field of non-local attention (NLA) have led to a
renewed interest in self-similarity-based single image super-resolution (SISR).
Researchers usually used the NLA to explore non-local self-similarity (NSS) in
SISR and achieve satisfactory reconstruction results. However, a surprising
phenomenon that the reconstruction performance of the standard NLA is similar
to the NLA with randomly selected regions stimulated our interest to revisit
NLA. In this paper, we first analyzed the attention map of the standard NLA
from different perspectives and discovered that the resulting probability
distribution always has full support for every local feature, which implies a
statistical waste of assigning values to irrelevant non-local features,
especially for SISR which needs to model long-range dependence with a large
number of redundant non-local features. Based on these findings, we introduced
a concise yet effective soft thresholding operation to obtain
high-similarity-pass attention (HSPA), which is beneficial for generating a
more compact and interpretable distribution. Furthermore, we derived some key
properties of the soft thresholding operation that enable training our HSPA in
an end-to-end manner. The HSPA can be integrated into existing deep SISR models
as an efficient general building block. In addition, to demonstrate the
effectiveness of the HSPA, we constructed a deep high-similarity-pass attention
network (HSPAN) by integrating a few HSPAs in a simple backbone. Extensive
experimental results demonstrate that HSPAN outperforms state-of-the-art
approaches on both quantitative and qualitative evaluations.
- Abstract(参考訳): 非局所的注意(NLA)の分野での最近の進歩は、自己相似性に基づく単一画像超解像(SISR)への新たな関心につながっている。
研究者は通常、NLAを用いて、SISRの非局所自己相似性(NSS)を探索し、良好な再建結果を得る。
しかし,標準NLAの再建性能がランダムに選択されたNLAと似ているという驚くべき現象は,NLAの再検討への関心を刺激した。
本稿ではまず,異なる視点から標準NLAのアテンションマップを解析し,結果の確率分布が常にすべての局所的特徴をフルにサポートしていることを発見し,非局所的特徴に値を割り当てる統計的ムダ,特に多数の冗長な非局所的特徴で長距離依存をモデル化する必要があるSISRについて検討した。
そこで本研究では,よりコンパクトで解釈可能な分布を生成する上で有用なhspa(high- similarity-pass attention)を得るための,簡潔かつ効果的なソフトしきい値操作を提案する。
さらに,HSPAをエンド・ツー・エンドでトレーニングできるソフトしきい値演算のいくつかの重要な特性を導出した。
HSPAは、効率的な汎用ビルディングブロックとして既存のディープSISRモデルに統合することができる。
さらに,HSPAの有効性を示すために,いくつかのHSPAを単純なバックボーンに統合することにより,HSPAN(High-Similarity-pass attention network)を構築した。
HSPANは定量評価と定性評価の両方において最先端の手法よりも優れていた。
関連論文リスト
- HRSAM: Efficient Interactive Segmentation in High-Resolution Images [59.537068118473066]
Segment Anything Model (SAM) は高度な対話的セグメンテーションを持つが、高解像度画像の計算コストによって制限される。
本稿では,視覚長外挿に着目し,HRSAMという軽量モデルを提案する。
この外挿により、HRSAMは低分解能で訓練され、高分解能に一般化できる。
論文 参考訳(メタデータ) (2024-07-02T09:51:56Z) - Efficient Learnable Collaborative Attention for Single Image Super-Resolution [18.955369476815136]
非局所注意(NLA)は、深部画像超解像(SR)における長距離特徴相関を捉える強力な手法である
本稿では,非局所的モデリングに帰納バイアスを導入する新しい学習可能協調意識(LCoA)を提案する。
我々のLCoAは、推論段階での非局所モデリング時間を約83%削減できる。
論文 参考訳(メタデータ) (2024-04-07T11:25:04Z) - ESSAformer: Efficient Transformer for Hyperspectral Image
Super-resolution [76.7408734079706]
単一ハイパースペクトル像超解像(単一HSI-SR)は、低分解能観測から高分解能ハイパースペクトル像を復元することを目的としている。
本稿では,1つのHSI-SRの繰り返し精製構造を持つESSA注目組込みトランスフォーマネットワークであるESSAformerを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:45:14Z) - SLLEN: Semantic-aware Low-light Image Enhancement Network [92.80325772199876]
LLEメインネットワーク(LLEmN)とSS補助ネットワーク(SSaN)からなる意味認識型LLEネットワーク(SSLEN)を開発する。
現在利用可能なアプローチとは異なり、提案されているSLLENは、LLEを支援するためにIEF、HSF、SSデータセットなどのセマンティック情報を完全に読み取ることができる。
提案したSLLENと他の最先端技術との比較により,LLEの品質に対するSLLENの優位性が示された。
論文 参考訳(メタデータ) (2022-11-21T15:29:38Z) - Efficient Non-Local Contrastive Attention for Image Super-Resolution [48.093500219958834]
非局所的注意(NLA)は、自然画像の内在的特徴相関を利用して、単一画像超解法(SISR)に大きな改善をもたらす。
本稿では,長期視覚モデリングを行い,より関連性の高い非局所的特徴を活用するための,効率的な非局所的コントラスト注意(ENLCA)を提案する。
論文 参考訳(メタデータ) (2022-01-11T05:59:09Z) - SOSP: Efficiently Capturing Global Correlations by Second-Order
Structured Pruning [8.344476599818828]
我々は2次構造化プルーニング(SOSP)のための2つの新しいサリエンシに基づく手法を考案した。
SOSP-Hは、高速なヘッセンベクトル生成物による塩分濃度評価を可能にする、革新的な二階近似を採用している。
我々のアルゴリズムは、アーキテクチャ上のボトルネックを体系的に明らかにし、ネットワークの精度をさらに高めるために取り除くことができることを示す。
論文 参考訳(メタデータ) (2021-10-19T13:53:28Z) - Image Super-Resolution with Cross-Scale Non-Local Attention and
Exhaustive Self-Exemplars Mining [66.82470461139376]
本稿では,再帰型ニューラルネットワークに統合されたCS-NLアテンションモジュールを提案する。
新しいCS-NLと局所的および非局所的非局所的前駆体を強力な再帰核融合セルで組み合わせることで、単一の低分解能画像内でよりクロススケールな特徴相関を見出すことができる。
論文 参考訳(メタデータ) (2020-06-02T07:08:58Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。