論文の概要: Object-ABN: Learning to Generate Sharp Attention Maps for Action
Recognition
- arxiv url: http://arxiv.org/abs/2207.13306v1
- Date: Wed, 27 Jul 2022 05:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:29:43.721366
- Title: Object-ABN: Learning to Generate Sharp Attention Maps for Action
Recognition
- Title(参考訳): Object-ABN:行動認識のためのシャープ注意マップ生成学習
- Authors: Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki
- Abstract要約: 本稿では,行動認識のためのよりシャープな注意マップを生成するために,インスタンスセグメンテーションを用いた注意分枝ネットワーク(ABN)の拡張を提案する。
提案手法であるObject-ABNは,生成した注目マップをインスタンスセグメンテーション結果に近いものにする新しいマスクロスを導入することでこの問題に対処する。
- 参考スコア(独自算出の注目度): 4.06040510836545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose an extension of the Attention Branch Network (ABN)
by using instance segmentation for generating sharper attention maps for action
recognition. Methods for visual explanation such as Grad-CAM usually generate
blurry maps which are not intuitive for humans to understand, particularly in
recognizing actions of people in videos. Our proposed method, Object-ABN,
tackles this issue by introducing a new mask loss that makes the generated
attention maps close to the instance segmentation result. Further the PC loss
and multiple attention maps are introduced to enhance the sharpness of the maps
and improve the performance of classification. Experimental results with UCF101
and SSv2 shows that the generated maps by the proposed method are much clearer
qualitatively and quantitatively than those of the original ABN.
- Abstract(参考訳): 本稿では,行動認識のためのよりシャープな注意マップを生成するために,インスタンスセグメンテーションを用いた注意分枝ネットワーク(ABN)の拡張を提案する。
Grad-CAMのような視覚的説明法は通常、人間が理解する直感的でないぼやけた地図を生成する。
提案手法であるObject-ABNは,生成した注目マップをインスタンスセグメンテーション結果に近いものにする新しいマスク損失を導入することでこの問題に対処する。
さらに、地図のシャープさを高め、分類性能を向上させるために、PC損失と複数注意マップを導入している。
UCF101 と SSv2 による実験結果から,提案手法による生成した写像は,元の ABN よりも定性的かつ定量的であることがわかった。
関連論文リスト
- Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Rethinking Class Activation Maps for Segmentation: Revealing Semantic
Information in Shallow Layers by Reducing Noise [2.462953128215088]
クラス活性化マップの性能に対する大きな制限は、畳み込みニューラルネットワークの最後の層にある特徴マップの小さな空間分解能である。
本稿では, 雑音を正の勾配で除去し, ノイズを除去する簡易な勾配法を提案する。
提案手法は,他のCAM関連手法にも容易に適用可能であり,高品質なクラスアクティベーションマップの取得が容易である。
論文 参考訳(メタデータ) (2023-08-04T03:04:09Z) - Towards Better Guided Attention and Human Knowledge Insertion in Deep
Convolutional Neural Networks [4.436790262021419]
生成したアテンションマップの解像度を向上させるマルチスケールアテンションブランチネットワーク(MSABN)を導入する。
編集されたサンプルが限られていても,この戦略により大幅な性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2022-10-20T11:32:38Z) - Improving Fine-Grained Visual Recognition in Low Data Regimes via
Self-Boosting Attention Mechanism [27.628260249895973]
SAM(Self-boosting attention mechanism)は、ネットワークを正規化して、サンプルやクラス間で共有されるキー領域に集中するための新しい手法である。
我々はSAMを用いて、二線形プール方式で畳み込みマップをプールするために複数の注意マップを作成する変種を開発する。
論文 参考訳(メタデータ) (2022-08-01T05:36:27Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Weakly-Supervised Semantic Segmentation via Sub-category Exploration [73.03956876752868]
我々は、オブジェクトの他の部分に注意を払うために、ネットワークを強制する単純で効果的なアプローチを提案する。
具体的には、画像の特徴をクラスタリングして、アノテーション付き親クラスごとに擬似サブカテゴリラベルを生成する。
提案手法の有効性を検証し,提案手法が最先端手法に対して良好に機能することを示す。
論文 参考訳(メタデータ) (2020-08-03T20:48:31Z) - Manifold-driven Attention Maps for Weakly Supervised Segmentation [9.289524646688244]
本稿では,視覚的に有意な領域を強化するために,多様体駆動型注意ネットワークを提案する。
提案手法は,余分な計算を必要とせずに,推論中により優れた注意マップを生成できる。
論文 参考訳(メタデータ) (2020-04-07T00:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。