論文の概要: Dual-attention Guided Dropblock Module for Weakly Supervised Object
Localization
- arxiv url: http://arxiv.org/abs/2003.04719v3
- Date: Thu, 9 Jul 2020 10:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:19:55.494944
- Title: Dual-attention Guided Dropblock Module for Weakly Supervised Object
Localization
- Title(参考訳): 弱教師付き物体定位のためのデュアルアテンション誘導ドロップブロックモジュール
- Authors: Junhui Yin, Siqing Zhang, Dongliang Chang, Zhanyu Ma, Jun Guo
- Abstract要約: 本稿では、弱教師付きオブジェクト位置決めのための情報的および補完的視覚パターンの学習を目的とした、二重アテンション誘導型ドロップブロックモジュール(DGDM)を提案する。
実験により,提案手法は,新しい最先端のローカライゼーション性能を実現することを示す。
- 参考スコア(独自算出の注目度): 24.77267786084476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention mechanisms is frequently used to learn the discriminative features
for better feature representations. In this paper, we extend the attention
mechanism to the task of weakly supervised object localization (WSOL) and
propose the dual-attention guided dropblock module (DGDM), which aims at
learning the informative and complementary visual patterns for WSOL. This
module contains two key components, the channel attention guided dropout (CAGD)
and the spatial attention guided dropblock (SAGD). To model channel
interdependencies, the CAGD ranks the channel attentions and treats the top-k
attentions with the largest magnitudes as the important ones. It also keeps
some low-valued elements to increase their value if they become important
during training. The SAGD can efficiently remove the most discriminative
information by erasing the contiguous regions of feature maps rather than
individual pixels. This guides the model to capture the less discriminative
parts for classification. Furthermore, it can also distinguish the foreground
objects from the background regions to alleviate the attention misdirection.
Experimental results demonstrate that the proposed method achieves new
state-of-the-art localization performance.
- Abstract(参考訳): アテンション機構は、より優れた特徴表現のための識別的特徴を学ぶためにしばしば用いられる。
本稿では、注意機構を弱教師付きオブジェクトローカライゼーション(WSOL)タスクに拡張し、WSOLにおける情報的および補完的視覚パターンの学習を目的とした二重注意誘導ドロップブロックモジュール(DGDM)を提案する。
このモジュールは、チャンネルアテンション誘導ドロップアウト(cagd)と空間アテンション誘導ドロップブロック(sagd)の2つの重要なコンポーネントを含んでいる。
チャネル相互依存性をモデル化するために、CAGDはチャネルの注意をランク付けし、最も大きな大きさでトップkの注意を重要視する。
また、トレーニング中に重要になった場合の価値を高めるために、いくつかの低価値要素も保持する。
SAGDは、個々の画素ではなく特徴マップの連続領域を消去することにより、最も識別性の高い情報を効率的に除去することができる。
これにより、分類のための識別性の少ない部分を取り込むモデルが導かれる。
さらに、前景オブジェクトを背景領域と区別することで、注意方向の誤認を軽減することもできる。
実験結果から,提案手法は最先端のローカライゼーション性能を実現する。
関連論文リスト
- Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - Spatial Structure Constraints for Weakly Supervised Semantic
Segmentation [100.0316479167605]
クラスアクティベーションマップ(CAM)は、オブジェクトの最も識別性の高い部分のみを見つけることができる。
注意伸縮の余剰なオブジェクトの過剰な活性化を軽減するために,弱い教師付きセマンティックセマンティックセグメンテーションのための空間構造制約(SSC)を提案する。
提案手法は,PASCAL VOC 2012とCOCOデータセットでそれぞれ72.7%,47.0%mIoUを達成した。
論文 参考訳(メタデータ) (2024-01-20T05:25:25Z) - Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z) - Saliency Guided Inter- and Intra-Class Relation Constraints for Weakly
Supervised Semantic Segmentation [66.87777732230884]
本稿では,活性化対象領域の拡大を支援するために,Salliency Guided Inter-およびIntra-Class Relation Constrained (I$2$CRC) フレームワークを提案する。
また,オブジェクトガイド付きラベルリファインメントモジュールを導入し,セグメンテーション予測と初期ラベルをフル活用し,優れた擬似ラベルを得る。
論文 参考訳(メタデータ) (2022-06-20T03:40:56Z) - Information Bottleneck Approach to Spatial Attention Learning [21.083618550304703]
人間の視覚システム(HVS)における選択的な視覚的注意機構は、自然のシーンを認識するための視覚的認識に到達するための情報の量を制限する。
このような選択性は、情報圧縮と予測精度のトレードオフを求める「情報ボトルネック(IB)」として機能する。
視覚認識のために構築されたディープニューラルネットワーク(DNN)のためのIBインスパイアされた空間アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2021-08-07T10:35:32Z) - Improve the Interpretability of Attention: A Fast, Accurate, and
Interpretable High-Resolution Attention Model [6.906621279967867]
そこで本稿では,タスク関連情報を取り込むための,非線形代表非パラメトリックアテンション(BR-NPA)戦略を提案する。
提案したモデルは、分類が関与する様々な近代的な深層モデルに容易に適応できる。
また、通常のニューラルアテンションモジュールよりも正確で高速で、メモリフットプリントも小さい。
論文 参考訳(メタデータ) (2021-06-04T15:57:37Z) - Action Unit Memory Network for Weakly Supervised Temporal Action
Localization [124.61981738536642]
弱い教師付き時間的行動局在(weakly supervised temporal action localization)は、訓練中のビデオレベルラベルのみを持つ未トリミングビデオにおける行動の検出とローカライズを目的としている。
AUMN(Action Unit Memory Network)は、時間的行動の弱い局在化を監督する。
論文 参考訳(メタデータ) (2021-04-29T06:19:44Z) - Fine-Grained Attention for Weakly Supervised Object Localization [1.490944787606832]
物体の活性領域の少ない領域を自律的に励起する新しい残留微粒注意(RFGA)モジュールを提案する。
我々は,三視点注意表現,注意拡大,特徴校正の一連のメカニズムを考案する。
提案するRFGAモジュールの優位性を,3つのデータセットに対する最近の文献的手法との比較により検証した。
論文 参考訳(メタデータ) (2021-04-11T08:14:05Z) - Grad-CAM guided channel-spatial attention module for fine-grained visual
classification [16.097903865384698]
ファイングラインド視覚分類(FGVC)のためのGrad-CAMガイドチャネル空間的注意モジュールを提案する。
grad-camを用いて、粗いローカライゼーションマップを生成して注意重みを監督し、制約する。
提案手法は、FGVCタスクにおける最新(SOTA)注意モジュールを上回っている。
論文 参考訳(メタデータ) (2021-01-24T07:28:14Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z) - Hybrid Multiple Attention Network for Semantic Segmentation in Aerial
Images [24.35779077001839]
グローバルな相関関係を適応的に捉えるために,Hybrid Multiple Attention Network (HMANet) という新しいアテンションベースのフレームワークを提案する。
本稿では,機能的冗長性を低減し,自己注意機構の効率を向上させるため,単純で効果的な領域シャッフルアテンション(RSA)モジュールを提案する。
論文 参考訳(メタデータ) (2020-01-09T07:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。