論文の概要: BA^2M: A Batch Aware Attention Module for Image Classification
- arxiv url: http://arxiv.org/abs/2103.15099v1
- Date: Sun, 28 Mar 2021 10:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 10:14:37.033056
- Title: BA^2M: A Batch Aware Attention Module for Image Classification
- Title(参考訳): BA^2M:画像分類のためのバッチ注意モジュール
- Authors: Qishang Cheng, Hongliang Li, Qingbo Wu and King Ngi Ngan
- Abstract要約: 特徴ある視点から機能強化のためのバッチ認識型注意モジュール(BA2M)を提案します。
まず、各サンプル内のチャネル、局所空間及びグローバル空間の注意マップを融合させることにより、サンプルワイズアテンション表現(SAR)を得る。
重みは、内容の複雑さが異なるトレーニングバッチのサンプル間で特徴の重要性を区別するのに役立ちます。
- 参考スコア(独自算出の注目度): 47.35660018072602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The attention mechanisms have been employed in Convolutional Neural Network
(CNN) to enhance the feature representation. However, existing attention
mechanisms only concentrate on refining the features inside each sample and
neglect the discrimination between different samples. In this paper, we propose
a batch aware attention module (BA2M) for feature enrichment from a distinctive
perspective. More specifically, we first get the sample-wise attention
representation (SAR) by fusing the channel, local spatial and global spatial
attention maps within each sample. Then, we feed the SARs of the whole batch to
a normalization function to get the weights for each sample. The weights serve
to distinguish the features' importance between samples in a training batch
with different complexity of content. The BA2M could be embedded into different
parts of CNN and optimized with the network in an end-to-end manner. The design
of BA2M is lightweight with few extra parameters and calculations. We validate
BA2M through extensive experiments on CIFAR-100 and ImageNet-1K for the image
recognition task. The results show that BA2M can boost the performance of
various network architectures and outperforms many classical attention methods.
Besides, BA2M exceeds traditional methods of re-weighting samples based on the
loss value.
- Abstract(参考訳): 特徴表現を強化するために畳み込みニューラルネットワーク(cnn)では注意機構が採用されている。
しかし、既存の注意機構は、各サンプル内の特徴を精錬することのみに集中し、異なるサンプル間の識別を無視する。
本稿では,特徴量強化のためのバッチアウェアメントモジュール(ba2m)を提案する。
具体的には、まず、各サンプル内のチャネル、局所空間及びグローバル空間の注意マップを融合させることにより、サンプルワイズアテンション表現(SAR)を得る。
次に,全バッチのSARを正規化関数に供給し,各サンプルの重み付けを行う。
重み付けは、内容の複雑さが異なるトレーニングバッチにおけるサンプル間の機能の重要性を区別するのに役立つ。
BA2MはCNNの様々な部分に埋め込まれ、エンドツーエンドでネットワークに最適化された。
BA2Mの設計は軽量で、パラメータや計算は少ない。
CIFAR-100 と ImageNet-1K の広汎な実験により BA2M を検証する。
その結果、ba2mは様々なネットワークアーキテクチャの性能を高め、多くの古典的な注意手法を上回っている。
さらに、BA2Mは損失値に基づいてサンプルを再重み付けする従来の方法を上回る。
関連論文リスト
- USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Modality-Aware Triplet Hard Mining for Zero-shot Sketch-Based Image
Retrieval [51.42470171051007]
本稿では,ZES-SBIR(Zero-Shot Sketch-Based Image Retrieval)問題に,クロスモダリティメトリック学習の観点から取り組む。
DMLにおける2つの基本的な学習手法、例えば分類訓練とペアトレーニングを組み合わせることで、ZS-SBIRの強力なベースラインを構築した。
モータリティ・アウェア・トリプルト・ハード・マイニング(MATHM)は3種類のペア・ラーニングによってベースラインを向上することを示す。
論文 参考訳(メタデータ) (2021-12-15T08:36:44Z) - Information Bottleneck-Based Hebbian Learning Rule Naturally Ties
Working Memory and Synaptic Updates [0.0]
私たちは、バックプロパゲーションとその関連する問題を完全に回避する、別のアプローチを取っています。
深層学習における最近の研究は、情報ボトルネック(IB)を介してネットワークの各層を個別に訓練することを提案した。
この変調信号は、貯水池のような動作記憶を持つ補助回路で学習可能であることを示す。
論文 参考訳(メタデータ) (2021-11-24T17:38:32Z) - SA-Net: Shuffle Attention for Deep Convolutional Neural Networks [0.0]
この問題に対処するために,効率的なShuffle Attention (SA) モジュールを提案する。
例えば、バックボーンのResNet50に対するSAのパラメータと計算は、それぞれ300対25.56Mと2.76e-3 GFLOPs対4.12 GFLOPである。
論文 参考訳(メタデータ) (2021-01-30T15:23:17Z) - BSNet: Bi-Similarity Network for Few-shot Fine-grained Image
Classification [35.50808687239441]
いわゆるtextitBi-Similarity Network (textitBSNet) を提案する。
両相似モジュールは、多様な特性の2つの類似度尺度に従って特徴写像を学習する。
このようにして、モデルはより差別的で類似度に富んだ特徴を、よりきめ細かい画像の少ないショットから学習することができる。
論文 参考訳(メタデータ) (2020-11-29T08:38:17Z) - Batch Coherence-Driven Network for Part-aware Person Re-Identification [79.33809815035127]
既存のパートアウェアの人物再識別方法は、通常、ボディ部分の検出と部分レベルの特徴抽出という2つのステップを使用する。
トレーニングフェーズとテストフェーズの両方で身体の一部をバイパスし,セマンティックに整合した機能を実現するNetworkBCDNetを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:04:13Z) - Augmented Bi-path Network for Few-shot Learning [16.353228724916505]
マルチスケールでグローバル機能とローカル機能を比較するために,Augmented Bi-path Network (ABNet)を提案する。
具体的には、各画像の局所的な特徴として、有能なパッチを抽出し、埋め込みする。その後、モデルは、より堅牢な機能を強化するために、その機能を強化することを学習する。
論文 参考訳(メタデータ) (2020-07-15T11:13:38Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。