論文の概要: RFAConv: Innovating Spatital Attention and Standard Convolutional
Operation
- arxiv url: http://arxiv.org/abs/2304.03198v3
- Date: Thu, 13 Apr 2023 13:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 10:49:27.579614
- Title: RFAConv: Innovating Spatital Attention and Standard Convolutional
Operation
- Title(参考訳): RFAConv: 空間的意識と標準的畳み込み運用の革新
- Authors: Xin Zhang, Chen Liu, Degang Yang, Tingting Song, Yichen Ye, Ke Li, and
Yingze Song
- Abstract要約: RFA(Receptive-Field Attention)と呼ばれる新しい注意機構を導入する。
RFAは受容場空間的特徴に焦点をあてるだけでなく、大規模な畳み込みカーネルに対して効果的な注意重みを与える。
計算コストとパラメータのほとんど無視可能な増加を提供すると同時に、ネットワーク性能も大幅に向上する。
- 参考スコア(独自算出の注目度): 7.960730975190897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial attention has been widely used to improve the performance of
convolutional neural networks by allowing them to focus on important
information. However, it has certain limitations. In this paper, we propose a
new perspective on the effectiveness of spatial attention, which is that it can
solve the problem of convolutional kernel parameter sharing. Despite this, the
information contained in the attention map generated by spatial attention is
not sufficient for large-size convolutional kernels. Therefore, we introduce a
new attention mechanism called Receptive-Field Attention (RFA). While previous
attention mechanisms such as the Convolutional Block Attention Module (CBAM)
and Coordinate Attention (CA) only focus on spatial features, they cannot fully
address the issue of convolutional kernel parameter sharing. In contrast, RFA
not only focuses on the receptive-field spatial feature but also provides
effective attention weights for large-size convolutional kernels. The
Receptive-Field Attention convolutional operation (RFAConv), developed by RFA,
represents a new approach to replace the standard convolution operation. It
offers nearly negligible increment of computational cost and parameters, while
significantly improving network performance. We conducted a series of
experiments on ImageNet-1k, MS COCO, and VOC datasets, which demonstrated the
superiority of our approach in various tasks including classification, object
detection, and semantic segmentation. Of particular importance, we believe that
it is time to shift focus from spatial features to receptive-field spatial
features for current spatial attention mechanisms. By doing so, we can further
improve network performance and achieve even better results. The code and
pre-trained models for the relevant tasks can be found at
https://github.com/Liuchen1997/RFAConv.
- Abstract(参考訳): 空間的注意は、重要な情報に焦点を当てることで畳み込みニューラルネットワークの性能を向上させるために広く使われている。
しかし、一定の制限がある。
本稿では、畳み込みカーネルパラメータ共有の問題を解くことができる空間的注意力の有効性に関する新しい視点を提案する。
それにもかかわらず、空間的注意によって生成された注意マップに含まれる情報は、大規模畳み込み核では不十分である。
そこで我々は、RFA(Receptive-Field Attention)と呼ばれる新しい注意機構を導入する。
CBAM(Convolutional Block Attention Module)やCA(Coordinate Attention)といった以前の注目メカニズムは空間的特徴のみにのみ焦点をあてていたが、畳み込みカーネルパラメータ共有の問題を完全に解決することはできない。
対照的に、RFAは受容場空間の特徴だけでなく、大きな畳み込みカーネルに対して効果的な注意重みを与える。
RFA が開発した Receptive-Field Attention Convolutional Operation (RFAConv) は、標準の畳み込み操作を置き換える新しいアプローチである。
計算コストとパラメータの増大はほぼ無視できるが、ネットワーク性能は大幅に向上している。
imagenet-1k,ms coco,vocデータセットの一連の実験を行い,分類,オブジェクト検出,セマンティクスセグメンテーションなど,さまざまなタスクにおけるアプローチの優位性を実証した。
特に重要なのは、現在の空間的注意のメカニズムにおいて、焦点を空間的特徴から受容的場的特徴にシフトする時だと信じている。
これにより、ネットワーク性能をさらに改善し、よりよい結果を得ることができる。
関連するタスクのコードと事前トレーニングされたモデルは、https://github.com/liuchen1997/rfaconvで見ることができる。
関連論文リスト
- ELA: Efficient Local Attention for Deep Convolutional Neural Networks [15.976475674061287]
本稿では、簡単な構造で大幅な性能向上を実現するための効率的な局所注意法(ELA)を提案する。
これらの課題を克服するため、我々は1次元畳み込みとグループ正規化機能強化技術の導入を提案する。
ELAはResNet、MobileNet、DeepLabといったディープCNNネットワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-02T08:06:18Z) - SAWU-Net: Spatial Attention Weighted Unmixing Network for Hyperspectral
Images [91.20864037082863]
本稿では,空間的注意ネットワークと重み付き未混合ネットワークをエンドツーエンドに学習する,SAWU-Netと呼ばれる空間的注意重み付き未混合ネットワークを提案する。
特に,画素アテンションブロックとウィンドウアテンションブロックからなる空間アテンションモジュールを設計し,画素ベースのスペクトル情報とパッチベースの空間情報を効率的にモデル化する。
実データと合成データの実験結果から,SAWU-Netの精度と優位性が示された。
論文 参考訳(メタデータ) (2023-04-22T05:22:50Z) - Efficient Image Super-Resolution using Vast-Receptive-Field Attention [49.87316814164699]
注意機構は、高度な超解像(SR)ネットワークの設計において重要な役割を果たす。
本研究では,アテンション機構の改善により,効率的なSRネットワークを設計する。
VAst-receptive-field Pixel attention networkであるVapSRを提案する。
論文 参考訳(メタデータ) (2022-10-12T07:01:00Z) - Rethinking Query-Key Pairwise Interactions in Vision Transformers [5.141895475956681]
本稿では,問合せキーの対の相互作用を排除し,注意重みを求めるために計算効率の高い相性ゲートを用いるキーオンリーの注意を提案する。
我々は、ImageNet分類ベンチマークのパラメータ限定設定において、最先端の精度に達する新しい自己注意モデルファミリーLinGlosを開発した。
論文 参考訳(メタデータ) (2022-07-01T03:36:49Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Boosting Crowd Counting via Multifaceted Attention [109.89185492364386]
大規模なバリエーションは、しばしば群衆画像の中に存在する。
CNNの固定サイズ畳み込みカーネルも、最近の視覚変換器の固定サイズアテンションも、このような変動には対処できない。
局所空間関係符号化におけるトランスフォーマーモデルを改善するための多面的注意ネットワーク(MAN)を提案する。
論文 参考訳(メタデータ) (2022-03-05T01:36:43Z) - An Attention Module for Convolutional Neural Networks [5.333582981327498]
本稿では,AW-畳み込みを開発することで,畳み込みニューラルネットワークのためのアテンションモジュールを提案する。
画像分類とオブジェクト検出タスクのための複数のデータセットの実験により,提案した注目モジュールの有効性が示された。
論文 参考訳(メタデータ) (2021-08-18T15:36:18Z) - Coordinate Attention for Efficient Mobile Network Design [96.40415345942186]
チャネルの注目に位置情報を埋め込むことにより,モバイルネットワークに対する新たな注意メカニズムを提案する。
2次元グローバルプーリングにより特徴テンソルを単一特徴ベクトルに変換するチャネルアテンションとは異なり、座標アテンションはチャネルアテンションを2つの1次元特徴符号化プロセスに分解する。
座標の注意はImageNetの分類に有用であり、オブジェクト検出やセマンティックセグメンテーションといった下流タスクではよりうまく振る舞う。
論文 参考訳(メタデータ) (2021-03-04T09:18:02Z) - Unlocking Pixels for Reinforcement Learning via Implicit Attention [61.666538764049854]
我々は最近,トランスフォーマーに非常に有効であることが示されている,新しい効率的なアテンションアルゴリズムを利用している。
これにより、注意に基づくコントローラは、より大きな視覚入力にスケールでき、より小さなパッチの使用が容易になります。
さらに,ソフトマックスの注目度をハイブリッドランダム特徴量で近似するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:00:26Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。