論文の概要: Axiom-based Grad-CAM: Towards Accurate Visualization and Explanation of
CNNs
- arxiv url: http://arxiv.org/abs/2008.02312v4
- Date: Wed, 19 Aug 2020 06:04:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 17:27:16.635614
- Title: Axiom-based Grad-CAM: Towards Accurate Visualization and Explanation of
CNNs
- Title(参考訳): 公理に基づくGrad-CAM:CNNの正確な可視化と説明に向けて
- Authors: Ruigang Fu, Qingyong Hu, Xiaohu Dong, Yulan Guo, Yinghui Gao, Biao Li
- Abstract要約: クラスアクティベーションマッピング(CAM)手法は,CNNの決定領域と画像領域の関連性を明らかにするために提案されている。
本稿では,CAM手法の可視化パラダイムに2つの公理(保存と感性)を導入する。
これらの公理をできるだけ満たすために、専用公理系Grad-CAM (XGrad-CAM) が提案されている。
- 参考スコア(独自算出の注目度): 29.731732363623713
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To have a better understanding and usage of Convolution Neural Networks
(CNNs), the visualization and interpretation of CNNs has attracted increasing
attention in recent years. In particular, several Class Activation Mapping
(CAM) methods have been proposed to discover the connection between CNN's
decision and image regions. In spite of the reasonable visualization, lack of
clear and sufficient theoretical support is the main limitation of these
methods. In this paper, we introduce two axioms -- Conservation and Sensitivity
-- to the visualization paradigm of the CAM methods. Meanwhile, a dedicated
Axiom-based Grad-CAM (XGrad-CAM) is proposed to satisfy these axioms as much as
possible. Experiments demonstrate that XGrad-CAM is an enhanced version of
Grad-CAM in terms of conservation and sensitivity. It is able to achieve better
visualization performance than Grad-CAM, while also be class-discriminative and
easy-to-implement compared with Grad-CAM++ and Ablation-CAM. The code is
available at https://github.com/Fu0511/XGrad-CAM.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)をよりよく理解し利用するために、近年CNNの可視化と解釈が注目されている。
特に,CNNの決定と画像領域の関連性を明らかにするために,いくつかのクラス活性化マッピング法が提案されている。
合理的な視覚化にもかかわらず、明確で十分な理論的サポートがないことが、これらの方法の主な制限である。
本稿では,CAM手法の可視化パラダイムに2つの公理(保存と感性)を導入する。
一方、これらの公理をできるだけ満たすために、専用公理ベースのGrad-CAM(XGrad-CAM)が提案されている。
実験により、XGrad-CAMは保存と感度の観点からGrad-CAMの強化版であることが示された。
また、Grad-CAM++やAblation-CAMと比較して、クラス識別と実装が容易である。
コードはhttps://github.com/Fu0511/XGrad-CAMで入手できる。
関連論文リスト
- Generalizing GradCAM for Embedding Networks [0.0]
本稿では,組込みネットワークのためのGrad-CAMを一般化した EmbeddingCAM を提案する。
提案手法の有効性をCUB-200-2011データセットに示すとともに,そのデータセットに対する定量的,定性的な分析結果を示す。
論文 参考訳(メタデータ) (2024-02-01T04:58:06Z) - FM-G-CAM: A Holistic Approach for Explainable AI in Computer Vision [0.6215404942415159]
我々は,コンピュータビジョンモデル,特に畳み込みニューラルネットワーク(CNN)に基づくモデルの予測を理解する必要性を強調した。
既存のCNN予測法は、主にグラディエント重み付きクラスアクティベーションマップ(Grad-CAM)に基づいており、単一のターゲットクラスのみに焦点を当てている。
本稿では,複数の上位予測クラスを考慮したFused Multi-class Gradient-weighted Class Activation Map (FM-G-CAM)を提案する。
論文 参考訳(メタデータ) (2023-12-10T19:33:40Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Exploit CAM by itself: Complementary Learning System for Weakly
Supervised Semantic Segmentation [59.24824050194334]
本稿では,CLS(Complementary Learning System)というエージェント学習における興味深い作業機構について述べる。
このシンプルだが効果的な学習パターンを動機として,汎用学習機構(GSLM)を提案する。
汎用学習モジュール(GLM)と特定学習モジュール(SLM)を開発するGSLM
論文 参考訳(メタデータ) (2023-03-04T16:16:47Z) - Cluster-CAM: Cluster-Weighted Visual Interpretation of CNNs' Decision in
Image Classification [12.971559051829658]
Cluster-CAMは、効率的な勾配のないCNN解釈アルゴリズムである。
本稿では,クラスタ化された特徴写像から認識ベースマップと認識-シザーを鍛えるための巧妙な戦略を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:38:20Z) - Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs [7.956110316017118]
畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
本稿では,CNNの視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:08:39Z) - Class Re-Activation Maps for Weakly-Supervised Semantic Segmentation [88.55040177178442]
クラスアクティベーションマップ(CAM)は、セマンティックセグメンテーションのための疑似マスクを生成する最も標準的なステップである。
しかし、不満足な擬似マスクのくちばしは、CAMで広く使われているバイナリクロスエントロピー損失(BCE)である。
ソフトマックスクロスエントロピー損失(SCE)を用いて収束CAMをBCEで再活性化する。
PASCAL VOC と MSCOCO の評価は、ReCAM が高品質なマスクを生成するだけでなく、オーバーヘッドの少ない任意の CAM 版でプラグイン・アンド・プレイをサポートすることを示している。
論文 参考訳(メタデータ) (2022-03-02T09:14:58Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。