論文の概要: Towards Better Guided Attention and Human Knowledge Insertion in Deep
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2210.11177v1
- Date: Thu, 20 Oct 2022 11:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:08:45.010191
- Title: Towards Better Guided Attention and Human Knowledge Insertion in Deep
Convolutional Neural Networks
- Title(参考訳): 深層畳み込みニューラルネットワークにおける注意の誘導と人間知識の挿入
- Authors: Ankit Gupta and Ida-Maria Sintorn
- Abstract要約: 生成したアテンションマップの解像度を向上させるマルチスケールアテンションブランチネットワーク(MSABN)を導入する。
編集されたサンプルが限られていても,この戦略により大幅な性能向上が達成できることを示す。
- 参考スコア(独自算出の注目度): 4.436790262021419
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Attention Branch Networks (ABNs) have been shown to simultaneously provide
visual explanation and improve the performance of deep convolutional neural
networks (CNNs). In this work, we introduce Multi-Scale Attention Branch
Networks (MSABN), which enhance the resolution of the generated attention maps,
and improve the performance. We evaluate MSABN on benchmark image recognition
and fine-grained recognition datasets where we observe MSABN outperforms ABN
and baseline models. We also introduce a new data augmentation strategy
utilizing the attention maps to incorporate human knowledge in the form of
bounding box annotations of the objects of interest. We show that even with a
limited number of edited samples, a significant performance gain can be
achieved with this strategy.
- Abstract(参考訳): 注意分岐ネットワーク(ABN)は、視覚的説明と深層畳み込みニューラルネットワーク(CNN)の性能向上を同時に提供する。
本研究では,マルチスケールアテンション分岐ネットワーク(MSABN)を導入し,生成したアテンションマップの解像度を向上し,性能を向上する。
msabnをベンチマーク画像認識および細粒度認識データセットで評価し,abnおよびベースラインモデルに勝る評価を行った。
また,関心対象のバウンディングボックスアノテーションの形で人間の知識を組み込むために,注目マップを利用した新しいデータ拡張戦略を導入する。
編集されたサンプルが限られていても,この戦略により大幅な性能向上が達成できることを示す。
関連論文リスト
- Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Object-ABN: Learning to Generate Sharp Attention Maps for Action
Recognition [4.06040510836545]
本稿では,行動認識のためのよりシャープな注意マップを生成するために,インスタンスセグメンテーションを用いた注意分枝ネットワーク(ABN)の拡張を提案する。
提案手法であるObject-ABNは,生成した注目マップをインスタンスセグメンテーション結果に近いものにする新しいマスクロスを導入することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-07-27T05:30:58Z) - GCA-Net : Utilizing Gated Context Attention for Improving Image Forgery
Localization and Detection [0.9883261192383611]
本稿では,グローバルな文脈学習に非局所的注意ブロックを利用するGated Context Attention Network (GCA-Net)を提案する。
提案手法は,複数のベンチマークデータセットにおいて,平均4.2%-5.4%のAUCで最先端のネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2021-12-08T14:13:14Z) - E-GraphSAGE: A Graph Neural Network based Intrusion Detection System [3.3598755777055374]
本稿では,グラフニューラルネットワーク(GNN)に基づく新しいネットワーク侵入検知システム(NIDS)を提案する。
GNNはディープニューラルネットワークの比較的新しいサブフィールドであり、グラフベースのデータ固有の構造を活用するユニークな能力を持っている。
最近の6つのNIDSベンチマークデータセットに基づく実験的評価は、E-GraphSAGEベースのNIDSの優れた性能を示している。
論文 参考訳(メタデータ) (2021-03-30T13:21:31Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。