論文の概要: LFI-CAM: Learning Feature Importance for Better Visual Explanation
- arxiv url: http://arxiv.org/abs/2105.00937v1
- Date: Mon, 3 May 2021 15:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:56:03.538226
- Title: LFI-CAM: Learning Feature Importance for Better Visual Explanation
- Title(参考訳): LFI-CAM: より良いビジュアル説明のための特徴の学習
- Authors: Kwang Hee Lee, Chaewon Park, Junghyun Oh, Nojun Kwak
- Abstract要約: クラスアクティベーションマッピング(CAM)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)の意思決定を理解するために使用される強力な技術です。
本稿では,画像分類と視覚的説明をエンドツーエンドで訓練可能な新しいアーキテクチャ LFI-CAM を提案する。
- 参考スコア(独自算出の注目度): 31.743421292094308
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Class Activation Mapping (CAM) is a powerful technique used to understand the
decision making of Convolutional Neural Network (CNN) in computer vision.
Recently, there have been attempts not only to generate better visual
explanations, but also to improve classification performance using visual
explanations. However, the previous works still have their own drawbacks. In
this paper, we propose a novel architecture, LFI-CAM, which is trainable for
image classification and visual explanation in an end-to-end manner. LFI-CAM
generates an attention map for visual explanation during forward propagation,
at the same time, leverages the attention map to improve the classification
performance through the attention mechanism. Our Feature Importance Network
(FIN) focuses on learning the feature importance instead of directly learning
the attention map to obtain a more reliable and consistent attention map. We
confirmed that LFI-CAM model is optimized not only by learning the feature
importance but also by enhancing the backbone feature representation to focus
more on important features of the input image. Experimental results show that
LFI-CAM outperforms the baseline models's accuracy on the classification tasks
as well as significantly improves on the previous works in terms of attention
map quality and stability over different hyper-parameters.
- Abstract(参考訳): CAM(Class Activation Mapping)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)の意思決定を理解するための強力な手法である。
近年,より優れた視覚的説明を生成するだけでなく,視覚的説明を用いた分類性能の向上が試みられている。
しかし、以前の作品には独自の欠点がある。
本稿では,画像分類と視覚的説明をエンドツーエンドで学習可能な新しいアーキテクチャ LFI-CAM を提案する。
LFI-CAMは、前方伝播中の視覚的説明のための注意マップを生成すると同時に、注意マップを活用して、注意機構による分類性能を向上させる。
我々の特徴重要ネットワーク(FIN)は、より信頼性が高く一貫した注意マップを得るために、注意マップを直接学習するのではなく、特徴の重要性を学習することに焦点を当てている。
我々は,LFI-CAMモデルが特徴量だけでなく,入力画像の重要な特徴に注目するバックボーン特徴表現の強化によって最適化されていることを確認した。
実験結果から,LFI-CAMは,分類作業におけるベースラインモデルの精度よりも優れており,注目マップの品質や,異なるハイパーパラメータに対する安定性の観点からも,従来よりも大幅に向上していることがわかった。
関連論文リスト
- On the Surprising Effectiveness of Attention Transfer for Vision Transformers [118.83572030360843]
従来の知恵は、事前学習型視覚変換器(ViT)が有用な表現を学習することで、下流のパフォーマンスを向上させることを示唆している。
予備学習で学んだ特徴や表現は必須ではない。
論文 参考訳(メタデータ) (2024-11-14T18:59:40Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - TDAN: Top-Down Attention Networks for Enhanced Feature Selectivity in
CNNs [18.24779045808196]
本稿では,トップダウンチャネルと空間変調を行うために,視覚検索ライトを反復的に生成する軽量なトップダウンアテンションモジュールを提案する。
我々のモデルは、推論中の入力解像度の変化に対してより堅牢であり、個々のオブジェクトや特徴を明示的な監督なしに各計算ステップでローカライズすることで、注意を"シフト"することを学ぶ。
論文 参考訳(メタデータ) (2021-11-26T12:35:17Z) - Learning to ignore: rethinking attention in CNNs [87.01305532842878]
我々は,CNNの注意機構を再構築し,出席する学習ではなく無視することを学ぶことを提案する。
具体的には、シーン内で無関係な情報を明示的に学習し、生成した表現でそれを抑えることを提案する。
論文 参考訳(メタデータ) (2021-11-10T13:47:37Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Keep CALM and Improve Visual Feature Attribution [42.784665606132]
クラスアクティベーションマッピング(クラスアクティベーションマッピング、CAM)は、複数の視覚タスクのための特徴属性法の基礎となっている。
定式化における認識のためのキューの位置を符号化する潜在変数を明示的に組み込むことにより、CAMを改善する。
結果のモデルであるクラスアクティベーション潜在マッピング(CALM)は、期待最大化アルゴリズムを用いて訓練される。
論文 参考訳(メタデータ) (2021-06-15T03:33:25Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。