論文の概要: EPSANet: An Efficient Pyramid Split Attention Block on Convolutional
Neural Network
- arxiv url: http://arxiv.org/abs/2105.14447v1
- Date: Sun, 30 May 2021 07:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:13:15.820294
- Title: EPSANet: An Efficient Pyramid Split Attention Block on Convolutional
Neural Network
- Title(参考訳): EPSANet:畳み込みニューラルネットワーク上での効率的なピラミッド分割注意ブロック
- Authors: Hu Zhang and Keke Zu and Jian Lu and Yuru Zou and Deyu Meng
- Abstract要約: 本研究では, ピラミッド分割注意(PSA)モジュールという, 軽量かつ効果的に注目する手法を提案する。
ResNetのボトルネックブロックにおける3x3畳み込みをPSAモジュールに置き換えることで、EPSA(Efficient Pyramid Split Attention)と呼ばれる新しい表現ブロックを得る。
EPSAブロックは、確立されたバックボーンネットワークにプラグイン・アンド・プレイコンポーネントとして簡単に追加でき、モデル性能の大幅な改善が達成できる。
- 参考スコア(独自算出の注目度): 41.994043409345956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, it has been demonstrated that the performance of a deep
convolutional neural network can be effectively improved by embedding an
attention module into it. In this work, a novel lightweight and effective
attention method named Pyramid Split Attention (PSA) module is proposed. By
replacing the 3x3 convolution with the PSA module in the bottleneck blocks of
the ResNet, a novel representational block named Efficient Pyramid Split
Attention (EPSA) is obtained. The EPSA block can be easily added as a
plug-and-play component into a well-established backbone network, and
significant improvements on model performance can be achieved. Hence, a simple
and efficient backbone architecture named EPSANet is developed in this work by
stacking these ResNet-style EPSA blocks. Correspondingly, a stronger
multi-scale representation ability can be offered by the proposed EPSANet for
various computer vision tasks including but not limited to, image
classification, object detection, instance segmentation, etc. Without bells and
whistles, the performance of the proposed EPSANet outperforms most of the
state-of-the-art channel attention methods. As compared to the SENet-50, the
Top-1 accuracy is improved by 1.93 % on ImageNet dataset, a larger margin of
+2.7 box AP for object detection and an improvement of +1.7 mask AP for
instance segmentation by using the Mask-RCNN on MS-COCO dataset are obtained.
Our source code is available at:https://github.com/murufeng/EPSANet.
- Abstract(参考訳): 近年,注目モジュールを組み込むことで,深層畳み込みニューラルネットワークの性能を効果的に向上できることが実証されている。
本研究では, ピラミッド分割注意(PSA)モジュールという, 軽量で効果的な注意方法を提案する。
ResNetのボトルネックブロックにおける3x3畳み込みをPSAモジュールに置き換えることで、EPSA(Efficient Pyramid Split Attention)と呼ばれる新しい表現ブロックを得る。
EPSAブロックは、確立されたバックボーンネットワークにプラグイン・アンド・プレイコンポーネントとして簡単に追加でき、モデル性能の大幅な改善が達成できる。
したがって、これらのResNetスタイルのEPSAブロックを積み重ねることで、EPSANetというシンプルで効率的なバックボーンアーキテクチャが開発されている。
それに対応して、画像分類、オブジェクト検出、インスタンスのセグメンテーションなどを含む様々なコンピュータビジョンタスクに対して、提案したEPSANetによってより強力なマルチスケール表現能力が提供される。
ベルとホイッスルがなければ、EPSANetの性能は最先端のチャネルアテンション手法よりも優れる。
SENet-50と比較して、ImageNetデータセットのTop-1精度は1.93%向上し、オブジェクト検出のための+2.7ボックスAPのより大きなマージンと、MS-COCOデータセット上のMask-RCNNを使用してインスタンスセグメンテーションのための+1.7マスクAPが改善された。
ソースコードはhttps://github.com/murufeng/epsanet.com/で入手できます。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - PARFormer: Transformer-based Multi-Task Network for Pedestrian Attribute
Recognition [23.814762073093153]
4つのモジュールを含むPARFormerという,純粋なトランスフォーマーベースのマルチタスクPARネットワークを提案する。
特徴抽出モジュールでは,特徴抽出のための強力なベースラインを構築し,複数のPARベンチマークで競合する結果を得る。
視点認識モジュールでは、歩行者属性に対する視点の影響を探索し、マルチビューのコントラスト損失を提案する。
属性認識モジュールでは、負の正の不均衡問題を緩和し、属性予測を生成する。
論文 参考訳(メタデータ) (2023-04-14T16:27:56Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - An efficient encoder-decoder architecture with top-down attention for
speech separation [25.092542427133704]
バイオインスパイアされた効率的なエンコーダデコーダアーキテクチャは、TDANetと呼ばれる脳のトップダウンの注意を模倣することで実現している。
3つのベンチマークデータセットにおいて、TDANetは従来型のSOTA(State-of-the-art)メソッドと競合する分離性能を一貫して達成した。
論文 参考訳(メタデータ) (2022-09-30T03:09:53Z) - A Mask Attention Interaction and Scale Enhancement Network for SAR Ship
Instance Segmentation [4.232332676611087]
本稿では,SAR船のインスタンスセグメンテーションのためのマスクアテンションインタラクションとスケールエンハンスメントネットワーク(MAI-SE-Net)を提案する。
MAIは、アトラス空間ピラミドプーリング(ASPP)を用いてマルチレゾリューション機能を再応答し、非局所ブロック(NLB)で長距離空間依存性をモデル化し、結合シャッフルアテンションブロック(CSAB)で相互作用の利点を向上させる。
論文 参考訳(メタデータ) (2022-07-08T14:04:04Z) - a novel attention-based network for fast salient object detection [14.246237737452105]
現在の有向物体検出ネットワークにおいて、最も一般的な方法はU字型構造を用いることである。
3つのコントリビューションを持つ新しい深層畳み込みネットワークアーキテクチャを提案する。
提案手法は, 精度を損なうことなく, 原サイズの1/3まで圧縮できることを示した。
論文 参考訳(メタデータ) (2021-12-20T12:30:20Z) - A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation [68.10621089649486]
アテンションアグリゲーションに基づく機能ピラミッドネットワーク(A2-FPN)を提案し、マルチスケール機能学習を改善します。
A2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
論文 参考訳(メタデータ) (2021-05-07T11:51:08Z) - CARAFE++: Unified Content-Aware ReAssembly of FEatures [132.49582482421246]
この目標を達成するために、ユニバーサルで軽量で高効率なオペレータであるContent-Aware ReAssembly of FEatures(CARAFE++)を提案します。
CARAFE++は、インスタンス固有のコンテンツ認識処理を可能にするアダプティブカーネルをオンザフライで生成する。
計算のオーバーヘッドが無視できるすべてのタスクにおいて、一貫性と実質的な利益を示しています。
論文 参考訳(メタデータ) (2020-12-07T07:34:57Z) - Regularized Densely-connected Pyramid Network for Salient Instance
Segmentation [73.17802158095813]
我々は、エンドツーエンドの有能なインスタンスセグメンテーション(SIS)のための新しいパイプラインを提案する。
ディープネットワークにおけるリッチな特徴階層をよりよく活用するために、正規化された高密度接続を提案する。
マスク予測を改善するために,新しいマルチレベルRoIAlignベースのデコーダを導入し,多レベル特徴を適応的に集約する。
論文 参考訳(メタデータ) (2020-08-28T00:13:30Z) - A novel Region of Interest Extraction Layer for Instance Segmentation [3.5493798890908104]
本稿では,既存のRoI抽出器の限界を克服する必要性を動機とする。
提案するレイヤ(Generic RoI Extractor - GRoIE)には,非ローカルなビルディングブロックとアテンション機構が導入され,パフォーマンスが向上する。
GRoIEは、オブジェクト検出とインスタンスセグメンテーションの両方のために、すべての2段階アーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2020-04-28T17:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。