論文の概要: Multi-scale Attention Network for Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2209.14145v1
- Date: Wed, 28 Sep 2022 14:49:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:05:37.638258
- Title: Multi-scale Attention Network for Image Super-Resolution
- Title(参考訳): 画像超解像のためのマルチスケール注意ネットワーク
- Authors: Yan Wang, Yusen Li, Gang Wang, and Xiaoguang Liu
- Abstract要約: 本稿では,マルチスケール大規模カーネルアテンション(MLKA)とゲート空間アテンションユニット(GSAU)からなるCNNベースのマルチスケールアテンションネットワーク(MAN)を提案する。
我々のMANは、最先端のパフォーマンスと計算の間の様々なトレードオフを達成できます。
- 参考スコア(独自算出の注目度): 13.032872092785261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By exploiting large kernel decomposition and attention mechanisms,
convolutional neural networks (CNN) can compete with transformer-based methods
in many high-level computer vision tasks. However, due to the advantage of
long-range modeling, the transformers with self-attention still dominate the
low-level vision, including the super-resolution task. In this paper, we
propose a CNN-based multi-scale attention network (MAN), which consists of
multi-scale large kernel attention (MLKA) and a gated spatial attention unit
(GSAU), to improve the performance of convolutional SR networks. Within our
MLKA, we rectify LKA with multi-scale and gate schemes to obtain the abundant
attention map at various granularity levels, therefore jointly aggregating
global and local information and avoiding the potential blocking artifacts. In
GSAU, we integrate gate mechanism and spatial attention to remove the
unnecessary linear layer and aggregate informative spatial context. To confirm
the effectiveness of our designs, we evaluate MAN with multiple complexities by
simply stacking different numbers of MLKA and GSAU. Experimental results
illustrate that our MAN can achieve varied trade-offs between state-of-the-art
performance and computations. Code is available at
https://github.com/icandle/MAN.
- Abstract(参考訳): カーネルの大規模な分解とアテンション機構を活用することで、畳み込みニューラルネットワーク(CNN)は多くのハイレベルコンピュータビジョンタスクにおいてトランスフォーマーベースの手法と競合することができる。
しかし、長距離モデリングの利点により、自己注意型変圧器は依然として超解像度タスクを含む低レベルの視界を支配している。
本稿では、畳み込みSRネットワークの性能向上を図るため、MLKAとGSAUからなるCNNベースのマルチスケールアテンションネットワーク(MAN)を提案する。
mlka内では、lkaを多スケールおよびゲートスキームで修正し、様々な粒度レベルで豊富な注意マップを取得することにより、グローバルおよびローカル情報を統合し、潜在的なブロッキングアーティファクトを回避する。
GSAUでは、不要な線形層を除去し、情報的空間文脈を集約するためにゲート機構と空間的注意を統合する。
設計の有効性を確認するため,MLKAとGSAUの異なる数のMLKAとGSAUを単純に積み重ねることで,MANを複数の複雑度で評価する。
実験結果から,我々のMANは,最先端の性能と計算とのトレードオフを様々に達成できることが示された。
コードはhttps://github.com/icandle/man.comから利用できる。
関連論文リスト
- Revisiting the Integration of Convolution and Attention for Vision Backbone [59.50256661158862]
畳み込みとMHSA(Multi-head self-attentions)は一般的に、視覚バックボーンを構築するための代替手段であると考えられている。
そこで本研究では,MSHAとConvsを,異なる粒度レベルで並列的に使用することを提案する。
我々は,提案手法であるtextitGLMix の可能性を実証的に検証した。軽量なConvs に細粒度機能の負荷をオフロードすることで,いくつかのセマンティックスロットで MHSAs を使用するのに十分である。
論文 参考訳(メタデータ) (2024-11-21T18:59:08Z) - Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - AMMUNet: Multi-Scale Attention Map Merging for Remote Sensing Image Segmentation [4.618389486337933]
マルチスケールアテンションマップをマージするUNetベースのフレームワークであるAMMUNetを提案する。
提案するAMMMは,マルチスケールアテンションマップを固定マスクテンプレートを用いた統一表現に効果的に結合する。
提案手法は,Vayhingenデータセットでは75.48%,Potsdamデータセットでは77.90%という顕著な平均交叉(mIoU)を達成した。
論文 参考訳(メタデータ) (2024-04-20T15:23:15Z) - SDA-$x$Net: Selective Depth Attention Networks for Adaptive Multi-scale
Feature Representation [14.7929472540577]
既存のマルチスケールの解は、小さな受容場を無視しながら、受容場のサイズを増大させるリスクをもたらす。
我々は,チャネル,空間,分岐などの既存の注意次元に加えて,新しい注意次元,すなわち深さを導入する。
本稿では,様々な視覚タスクにおいて,マルチスケールオブジェクトを対称に扱うための,新しい選択的な奥行き注意ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T12:49:55Z) - Boosting Crowd Counting via Multifaceted Attention [109.89185492364386]
大規模なバリエーションは、しばしば群衆画像の中に存在する。
CNNの固定サイズ畳み込みカーネルも、最近の視覚変換器の固定サイズアテンションも、このような変動には対処できない。
局所空間関係符号化におけるトランスフォーマーモデルを改善するための多面的注意ネットワーク(MAN)を提案する。
論文 参考訳(メタデータ) (2022-03-05T01:36:43Z) - Multi-stage Attention ResU-Net for Semantic Segmentation of
Fine-Resolution Remote Sensing Images [9.398340832493457]
この問題に対処するための線形注意機構(LAM)を提案する。
LAMは、計算効率の高いドット積アテンションとほぼ同値である。
微細なリモートセンシング画像からのセマンティックセグメンテーションのためのマルチステージアテンションResU-Netを設計する。
論文 参考訳(メタデータ) (2020-11-29T07:24:21Z) - Multi-Attention-Network for Semantic Segmentation of Fine Resolution
Remote Sensing Images [10.835342317692884]
リモートセンシング画像におけるセマンティックセグメンテーションの精度は、ディープ畳み込みニューラルネットワークによって著しく向上した。
本稿では,これらの問題に対処するマルチアテンション・ネットワーク(MANet)を提案する。
線形複雑性を伴うカーネル注意の新たなアテンション機構が提案され,注目される計算負荷の低減が図られた。
論文 参考訳(メタデータ) (2020-09-03T09:08:02Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - Multi-Head Attention: Collaborate Instead of Concatenate [85.71058762269374]
我々は,頭部が共有投影を学習できる,協調的な多面的アテンション層を提案する。
実験により、キー/クエリの次元の共有は言語理解、機械翻訳、ビジョンに活用できることを確認した。
論文 参考訳(メタデータ) (2020-06-29T20:28:52Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。