論文の概要: BAM: A Lightweight and Efficient Balanced Attention Mechanism for Single
Image Super Resolution
- arxiv url: http://arxiv.org/abs/2104.07566v1
- Date: Thu, 15 Apr 2021 16:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 19:01:55.599760
- Title: BAM: A Lightweight and Efficient Balanced Attention Mechanism for Single
Image Super Resolution
- Title(参考訳): BAM:シングルイメージ超解像のための軽量で高効率な平衡注意機構
- Authors: Fanyi Wang, Haotian Hu, Cheng Shen
- Abstract要約: 単一の画像超解像(SISR)は、コンピュータビジョンの分野で最も困難な問題の1つです。
軽量で効率的な平衡注意機構(BAM)を提案する。
Avgpool Channel Attention Module (ACAM) と Maxpool Space Attention Module (MSAM) で構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single image super-resolution (SISR) is one of the most challenging problems
in the field of computer vision. Among the deep convolutional neural network
based methods, attention mechanism has shown the enormous potential. However,
due to the diverse network architectures, there is a lack of a universal
attention mechanism for the SISR task. In this paper, we propose a lightweight
and efficient Balanced Attention Mechanism (BAM), which can be generally
applicable for different SISR networks. It consists of Avgpool Channel
Attention Module (ACAM) and Maxpool Spatial Attention Module (MSAM). These two
modules are connected in parallel to minimize the error accumulation and the
crosstalk. To reduce the undesirable effect of redundant information on the
attention generation, we only apply Avgpool for channel attention because
Maxpool could pick up the illusive extreme points in the feature map across the
spatial dimensions, and we only apply Maxpool for spatial attention because the
useful features along the channel dimension usually exist in the form of
maximum values for SISR task. To verify the efficiency and robustness of BAM,
we apply it to 12 state-of-the-art SISR networks, among which eight were
without attention thus we plug BAM in and four were with attention thus we
replace its original attention module with BAM. We experiment on Set5, Set14
and BSD100 benchmark datasets with the scale factor of x2 , x3 and x4 . The
results demonstrate that BAM can generally improve the network performance.
Moreover, we conduct the ablation experiments to prove the minimalism of BAM.
Our results show that the parallel structure of BAM can better balance channel
and spatial attentions, thus outperforming the series structure of prior
Convolutional Block Attention Module (CBAM).
- Abstract(参考訳): シングルイメージ超解像(SISR)はコンピュータビジョンの分野で最も難しい問題の一つである。
深層畳み込みニューラルネットワークに基づく手法の中で、注意機構は大きな可能性を示している。
しかし、多様なネットワークアーキテクチャのため、SISRタスクには普遍的な注意機構が欠如している。
本稿では,異なるSISRネットワークに適用可能な軽量かつ効率的な平衡注意機構(BAM)を提案する。
Avgpool Channel Attention Module (ACAM)とMaxpool Space Attention Module (MSAM)で構成されている。
これら2つのモジュールは、エラーの蓄積とクロストークを最小限に抑えるために並列に接続される。
注意生成における冗長な情報の望ましくない影響を低減するために,maxpool は空間的次元にまたがる特徴写像の難解な極点を拾い上げることができるため,avgpool をチャネル注意にのみ適用し,チャネル次元に沿った有用な特徴がsisrタスクの最大値の形で存在するため,maxpool を空間注意にのみ適用する。
bamの効率性とロバスト性を検証するために、最先端の12のsisrネットワークに適用し、うち8つが注目されていないため、bamを差し込み、4つが注目され、元のアテンションモジュールをbamに置き換えた。
set5, Set14, BSD100ベンチマークデータセットをx2, x3, x4のスケール係数で実験した。
その結果,BAMはネットワーク性能を向上できることがわかった。
さらに,BAMの最小性を証明するためにアブレーション実験を行った。
以上の結果から,BAMの並列構造はチャネルと空間的注意のバランスが良くなり,CBAM(Convolutional Block Attention Module)のシリーズ構造よりも優れていた。
関連論文リスト
- DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - TBSN: Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師型イメージデノベーション(SSID)において一般的なネットワークアーキテクチャである。
本稿では, ブラインドスポット要求を満たす変圧器演算子の解析と再設計により, 変圧器ベースブラインドスポットネットワーク(TBSN)を提案する。
空間的自己注意のために、注意行列に精巧なマスクを適用して受容場を制限し、拡張された畳み込みを模倣する。
チャネル自己アテンションについては,マルチスケールアーキテクチャの深層部において,チャネル数が空間的サイズよりも大きい場合,盲点情報を漏洩する可能性がある。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - MCA: Moment Channel Attention Networks [10.780493635885225]
ニューラルネットワーク内の特徴写像の統計モーメントについて検討する。
本研究は,モデルキャパシティ向上における高次モーメントの重要性を明らかにする。
モーメントチャネル注意(MCA)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-04T04:02:59Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - IMDeception: Grouped Information Distilling Super-Resolution Network [7.6146285961466]
SISR(Single-Image-Super-Resolution)は、ディープラーニング手法の最近の進歩の恩恵を受けている古典的なコンピュータビジョン問題である。
本稿では,機能集約のためのIICモジュールの代替として,GPRM(Global Progressive Refinement Module)を提案する。
また,1秒あたりのパラメータ数や浮動小数点演算量(FLOPS)をさらに削減するために,GIDB(Grouped Information Distilling Blocks)を提案する。
実験の結果,提案したネットワークは,パラメータ数やFLOPSが限られているにもかかわらず,最先端モデルと同等に動作していることがわかった。
論文 参考訳(メタデータ) (2022-04-25T06:43:45Z) - Attention in Attention Network for Image Super-Resolution [18.2279472158217]
静的な注意メカニズムを定量化し、視覚化し、すべての注意モジュールが等しく有益ではないことを示します。
高精度な画像SRのために注目ネットワーク(A$2$N)への注目を提案します。
我々のモデルは最先端の軽量ネットワークと比較して優れたトレードオフ性能を実現することができる。
論文 参考訳(メタデータ) (2021-04-19T17:59:06Z) - Lightweight Image Super-Resolution with Multi-scale Feature Interaction
Network [15.846394239848959]
軽量マルチスケール機能インタラクションネットワーク(MSFIN)を提案する。
軽量SISRでは、MSFINは受容野を拡張し、低解像度の観測画像の情報的特徴を適切に活用する。
提案したMSFINは,より軽量なモデルで最先端技術に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2021-03-24T07:25:21Z) - Channelized Axial Attention for Semantic Segmentation [70.14921019774793]
チャネルアキシャルアテンション(CAA)を提案し、チャネルアテンションと軸アテンションをシームレスに統合し、計算複雑性を低減します。
私たちのCAAは、DANetのような他の注意モデルに比べて計算リソースをはるかに少なくするだけでなく、すべての検証済みデータセット上で最先端のResNet-101ベースのセグメンテーションモデルよりも優れています。
論文 参考訳(メタデータ) (2021-01-19T03:08:03Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。