論文の概要: Deep Reinforced Attention Learning for Quality-Aware Visual Recognition
- arxiv url: http://arxiv.org/abs/2007.06156v2
- Date: Tue, 30 Aug 2022 17:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:09:21.991142
- Title: Deep Reinforced Attention Learning for Quality-Aware Visual Recognition
- Title(参考訳): 高品質視覚認識のための深部強化注意学習
- Authors: Duo Li, Qifeng Chen
- Abstract要約: 我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
- 参考スコア(独自算出の注目度): 73.15276998621582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we build upon the weakly-supervised generation mechanism of
intermediate attention maps in any convolutional neural networks and disclose
the effectiveness of attention modules more straightforwardly to fully exploit
their potential. Given an existing neural network equipped with arbitrary
attention modules, we introduce a meta critic network to evaluate the quality
of attention maps in the main network. Due to the discreteness of our designed
reward, the proposed learning method is arranged in a reinforcement learning
setting, where the attention actors and recurrent critics are alternately
optimized to provide instant critique and revision for the temporary attention
representation, hence coined as Deep REinforced Attention Learning (DREAL). It
could be applied universally to network architectures with different types of
attention modules and promotes their expressive ability by maximizing the
relative gain of the final recognition performance arising from each individual
attention module, as demonstrated by extensive experiments on both category and
instance recognition benchmarks.
- Abstract(参考訳): 本稿では,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築し,その潜在能力を十分に活用するための注意モジュールの有効性を明らかにする。
任意のアテンションモジュールを備えた既存のニューラルネットワークを前提として,本ネットワークにおけるアテンションマップの質を評価するメタ批判ネットワークを提案する。
設計した報酬の離散性から,提案手法を強化学習環境に配置し,注意役者と再帰的批評家を交互に最適化し,一時的注意表現の即時的批評と修正を行い,Deep Reinforceed Attention Learning (DREAL) と呼ぶ。
これは、異なるタイプのアテンションモジュールを持つネットワークアーキテクチャに普遍的に適用することができ、各アテンションモジュールから生じる最終的な認識性能の相対的なゲインを最大化することで、その表現能力を促進することができる。
関連論文リスト
- Switchable Self-attention Module [3.8992324495848356]
自己注意モジュールSEMを提案する。
SEMは、アテンションモジュールと代替アテンション演算子の入力情報に基づいて、自動的にアテンション演算子を選択し、統合してアテンションマップを計算することができる。
SEMの有効性は、広く使われているベンチマークデータセットと一般的な自己注意ネットワークに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2022-09-13T01:19:38Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Reinforced Attention for Few-Shot Learning and Beyond [37.840203408724996]
少数ショット学習は、限られた数のサポートサンプルを与えられた未公開クラスからのクエリサンプルを正しく認識することを目的としている。
我々は、強化学習によって訓練された注目エージェントをバックボーンネットワークに装備する。
実験により、埋め込みネットワークは、より識別的な表現を段階的に生成できることを示した。
論文 参考訳(メタデータ) (2021-04-09T05:01:15Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Learning from Extrinsic and Intrinsic Supervisions for Domain
Generalization [95.73898853032865]
ドメイン間を同時に一般化する方法を学ぶための新しいドメイン一般化フレームワークを提案する。
提案手法の有効性を2つの標準オブジェクト認識ベンチマークで示す。
論文 参考訳(メタデータ) (2020-07-18T03:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。