論文の概要: Empowering CAM-based Methods with Capability to Generate Fine-Grained
and High-Faithfulness Explanations
- arxiv url: http://arxiv.org/abs/2303.09171v2
- Date: Wed, 10 Jan 2024 16:30:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 17:53:18.221649
- Title: Empowering CAM-based Methods with Capability to Generate Fine-Grained
and High-Faithfulness Explanations
- Title(参考訳): 微細粒度・高忠実度説明生成能力を有するCAM法
- Authors: Changqing Qiu, Fusheng Jin, Yining Zhang
- Abstract要約: コンピュータビジョンでは、CAMベースの手法とLRPは2つの一般的な説明法である。
本稿では,CAM法を拡張したFG-CAMを提案する。
提案手法は, CAM法の特徴を変化させることなく, CAM法の欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明も生成する。
- 参考スコア(独自算出の注目度): 1.757194730633422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the explanation of neural network models has garnered considerable
research attention. In computer vision, CAM (Class Activation Map)-based
methods and LRP (Layer-wise Relevance Propagation) method are two common
explanation methods. However, since most CAM-based methods can only generate
global weights, they can only generate coarse-grained explanations at a deep
layer. LRP and its variants, on the other hand, can generate fine-grained
explanations. But the faithfulness of the explanations is too low. To address
these challenges, in this paper, we propose FG-CAM (Fine-Grained CAM), which
extends CAM-based methods to enable generating fine-grained and
high-faithfulness explanations. FG-CAM uses the relationship between two
adjacent layers of feature maps with resolution differences to gradually
increase the explanation resolution, while finding the contributing pixels and
filtering out the pixels that do not contribute. Our method not only solves the
shortcoming of CAM-based methods without changing their characteristics, but
also generates fine-grained explanations that have higher faithfulness than LRP
and its variants. We also present FG-CAM with denoising, which is a variant of
FG-CAM and is able to generate less noisy explanations with almost no change in
explanation faithfulness. Experimental results show that the performance of
FG-CAM is almost unaffected by the explanation resolution. FG-CAM outperforms
existing CAM-based methods significantly in both shallow and intermediate
layers, and outperforms LRP and its variations significantly in the input
layer. Our code is available at https://github.com/dongmo-qcq/FG-CAM.
- Abstract(参考訳): 近年,ニューラルネットワークモデルの説明が研究の注目を集めている。
コンピュータビジョンでは, CAM (Class Activation Map) と LRP (Layer-wise Relevance Propagation) の2つの手法が一般的である。
しかし、ほとんどのCAMベースの手法はグローバルウェイトしか生成できないため、深い層で粗い粒度の説明しか生成できない。
一方、lrpとその変種は、細かな説明を生成することができる。
しかし、説明の忠実さは低すぎる。
これらの課題に対処するため,本論文では,細粒度で高忠実な説明を生成するために,CAM法を拡張したFG-CAM(Fine-Grained CAM)を提案する。
fg-camは、解像度の違いを持つ2つの隣接する特徴マップの層間の関係を利用して、徐々に分解性を高め、寄与画素を見つけ、寄与しない画素をフィルタリングする。
提案手法は, CAM法の特徴を変化させることなく, その欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明を生成する。
また,FG-CAMはFG-CAMの変種であり,説明の忠実度にはほとんど変化がなく,ノイズの少ない説明を生成できる。
実験結果から,FG-CAMの性能にはほとんど影響がないことが明らかとなった。
FG-CAMは、浅い層と中間層の両方において既存のCAM法を著しく上回り、入力層においてLPPとその変動を著しく上回る。
私たちのコードはhttps://github.com/dongmo-qcq/fg-camで入手できる。
関連論文リスト
- Enhancing Explainable AI: A Hybrid Approach Combining GradCAM and LRP for CNN Interpretability [0.0]
本稿では,GradCAM と LRP の組合せを用いて,CNN ベースモデルの出力を説明する手法を提案する。
どちらの手法も、予測に重要な入力領域をハイライトすることで視覚的説明を生成する。
論文 参考訳(メタデータ) (2024-05-20T16:58:24Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Exploit CAM by itself: Complementary Learning System for Weakly
Supervised Semantic Segmentation [59.24824050194334]
本稿では,CLS(Complementary Learning System)というエージェント学習における興味深い作業機構について述べる。
このシンプルだが効果的な学習パターンを動機として,汎用学習機構(GSLM)を提案する。
汎用学習モジュール(GLM)と特定学習モジュール(SLM)を開発するGSLM
論文 参考訳(メタデータ) (2023-03-04T16:16:47Z) - Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - Recipro-CAM: Gradient-free reciprocal class activation map [0.0]
本稿では,アクティベーションマップとネットワーク出力の相関性を利用するために,軽量なアーキテクチャと勾配のないReciprocal CAM(Recipro-CAM)を提案する。
提案手法により,Score-CAMと比較してResNetファミリーの1:78~3:72%のゲインを得た。
さらに、Recipro-CAMはGrad-CAMと似たサリエンシマップ生成率を示し、Score-CAMの約148倍高速である。
論文 参考訳(メタデータ) (2022-09-28T13:15:03Z) - FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs [7.956110316017118]
畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
本稿では,CNNの視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-06-17T14:08:39Z) - Class Re-Activation Maps for Weakly-Supervised Semantic Segmentation [88.55040177178442]
クラスアクティベーションマップ(CAM)は、セマンティックセグメンテーションのための疑似マスクを生成する最も標準的なステップである。
しかし、不満足な擬似マスクのくちばしは、CAMで広く使われているバイナリクロスエントロピー損失(BCE)である。
ソフトマックスクロスエントロピー損失(SCE)を用いて収束CAMをBCEで再活性化する。
PASCAL VOC と MSCOCO の評価は、ReCAM が高品質なマスクを生成するだけでなく、オーバーヘッドの少ない任意の CAM 版でプラグイン・アンド・プレイをサポートすることを示している。
論文 参考訳(メタデータ) (2022-03-02T09:14:58Z) - PCAM: Product of Cross-Attention Matrices for Rigid Registration of
Point Clouds [79.99653758293277]
PCAMは、キー要素がクロスアテンション行列のポイントワイズ積であるニューラルネットワークである。
そこで本研究では,PCAMがステップ(a)とステップ(b)をディープネットを介して共同で解決する手法によって,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-04T09:23:27Z) - F-CAM: Full Resolution CAM via Guided Parametric Upscaling [20.609010268320013]
クラスアクティベーションマッピング(CAM)メソッドは、最近、弱い教師付きオブジェクトローカライゼーション(WSOL)タスクに多くの注目を集めている。
CAMメソッドは通常、ResNet50のような既製のCNNバックボーンに統合される。
完全分解能CAMを高精度に構築できるCAMのパラメトリックアップスケーリング法を提案する。
論文 参考訳(メタデータ) (2021-09-15T04:45:20Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。