論文の概要: Fine-Grained and High-Faithfulness Explanations for Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2303.09171v1
- Date: Thu, 16 Mar 2023 09:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:06:56.381730
- Title: Fine-Grained and High-Faithfulness Explanations for Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークのための細粒度・高精細度説明
- Authors: Changqing Qiu, Fusheng Jin, Yining Zhang
- Abstract要約: 本稿では,CAM法を拡張したFG-CAMを提案する。
提案手法は, CAM法の特徴を変化させることなく, CAM法の欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明も生成する。
- 参考スコア(独自算出の注目度): 2.4063592468412276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, explaining CNNs has become a research hotspot. CAM (Class
Activation Map)-based methods and LRP (Layer-wise Relevance Propagation) method
are two common explanation methods. However, due to the small spatial
resolution of the last convolutional layer, the CAM-based methods can often
only generate coarse-grained visual explanations that provide a coarse location
of the target object. LRP and its variants, on the other hand, can generate
fine-grained explanations. But the faithfulness of the explanations is too low.
In this paper, we propose FG-CAM (fine-grained CAM), which extends the
CAM-based methods to generate fine-grained visual explanations with high
faithfulness. FG-CAM uses the relationship between two adjacent layers of
feature maps with resolution difference to gradually increase the explanation
resolution, while finding the contributing pixels and filtering out the pixels
that do not contribute at each step. Our method not only solves the shortcoming
of CAM-based methods without changing their characteristics, but also generates
fine-grained explanations that have higher faithfulness than LRP and its
variants. We also present FG-CAM with denoising, which is a variant of FG-CAM
and is able to generate less noisy explanations with almost no change in
explanation faithfulness. Experimental results show that the performance of
FG-CAM is almost unaffected by the explanation resolution. FG-CAM outperforms
existing CAM-based methods significantly in the both shallow and intermediate
convolutional layers, and outperforms LRP and its variations significantly in
the input layer.
- Abstract(参考訳): 近年,CNNについての説明がホットスポットとなっている。
CAM(Class Activation Map)法とLRP(Layer-wise Relevance Propagation)法は2つの一般的な説明法である。
しかし、最後の畳み込み層の小さな空間分解能のため、CAMベースの手法は、ターゲットの粗い位置を提供する粗い粒度の視覚的説明しか生成できないことが多い。
一方、lrpとその変種は、細かな説明を生成することができる。
しかし、説明の忠実さは低すぎる。
本稿では,高忠実度で細粒度な視覚的説明を生成するために,カムベース手法を拡張したfg-camを提案する。
FG-CAMは、隣り合う2つの特徴写像と解像度差の関係を利用して、徐々に説明分解能を高めつつ、寄与画素を見つけ、各ステップで寄与しない画素をフィルタリングする。
提案手法は, CAM法の特徴を変化させることなく, その欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明を生成する。
また,FG-CAMはFG-CAMの変種であり,説明の忠実度にはほとんど変化がなく,ノイズの少ない説明を生成できる。
実験結果から,FG-CAMの性能にはほとんど影響がないことが明らかとなった。
FG-CAMは、浅い畳み込み層と中間の畳み込み層の両方において既存のCAM法を著しく上回り、入力層においてLPPとその変動を著しく上回ります。
関連論文リスト
- CAMs as Shapley Value-based Explainers [0.0]
CAM(Class Activation Mapping)法はニューラルネットワークの決定を可視化するために広く用いられている。
本稿では,CRG (Content Reserved Game-theoretic) Explainerを紹介する。
このフレームワーク内では勾配とヘッセン行列を利用する新しい手法であるShapleyCAMを開発する。
論文 参考訳(メタデータ) (2025-01-09T13:14:32Z) - Enhancing Explainable AI: A Hybrid Approach Combining GradCAM and LRP for CNN Interpretability [0.0]
本稿では,GradCAM と LRP の組合せを用いて,CNN ベースモデルの出力を説明する手法を提案する。
どちらの手法も、予測に重要な入力領域をハイライトすることで視覚的説明を生成する。
論文 参考訳(メタデータ) (2024-05-20T16:58:24Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Exploit CAM by itself: Complementary Learning System for Weakly
Supervised Semantic Segmentation [59.24824050194334]
本稿では,CLS(Complementary Learning System)というエージェント学習における興味深い作業機構について述べる。
このシンプルだが効果的な学習パターンを動機として,汎用学習機構(GSLM)を提案する。
汎用学習モジュール(GLM)と特定学習モジュール(SLM)を開発するGSLM
論文 参考訳(メタデータ) (2023-03-04T16:16:47Z) - Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - Recipro-CAM: Gradient-free reciprocal class activation map [0.0]
本稿では,アクティベーションマップとネットワーク出力の相関性を利用するために,軽量なアーキテクチャと勾配のないReciprocal CAM(Recipro-CAM)を提案する。
提案手法により,Score-CAMと比較してResNetファミリーの1:78~3:72%のゲインを得た。
さらに、Recipro-CAMはGrad-CAMと似たサリエンシマップ生成率を示し、Score-CAMの約148倍高速である。
論文 参考訳(メタデータ) (2022-09-28T13:15:03Z) - Class Re-Activation Maps for Weakly-Supervised Semantic Segmentation [88.55040177178442]
クラスアクティベーションマップ(CAM)は、セマンティックセグメンテーションのための疑似マスクを生成する最も標準的なステップである。
しかし、不満足な擬似マスクのくちばしは、CAMで広く使われているバイナリクロスエントロピー損失(BCE)である。
ソフトマックスクロスエントロピー損失(SCE)を用いて収束CAMをBCEで再活性化する。
PASCAL VOC と MSCOCO の評価は、ReCAM が高品質なマスクを生成するだけでなく、オーバーヘッドの少ない任意の CAM 版でプラグイン・アンド・プレイをサポートすることを示している。
論文 参考訳(メタデータ) (2022-03-02T09:14:58Z) - PCAM: Product of Cross-Attention Matrices for Rigid Registration of
Point Clouds [79.99653758293277]
PCAMは、キー要素がクロスアテンション行列のポイントワイズ積であるニューラルネットワークである。
そこで本研究では,PCAMがステップ(a)とステップ(b)をディープネットを介して共同で解決する手法によって,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-04T09:23:27Z) - F-CAM: Full Resolution CAM via Guided Parametric Upscaling [20.609010268320013]
クラスアクティベーションマッピング(CAM)メソッドは、最近、弱い教師付きオブジェクトローカライゼーション(WSOL)タスクに多くの注目を集めている。
CAMメソッドは通常、ResNet50のような既製のCNNバックボーンに統合される。
完全分解能CAMを高精度に構築できるCAMのパラメトリックアップスケーリング法を提案する。
論文 参考訳(メタデータ) (2021-09-15T04:45:20Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。