論文の概要: Fine-Grained and High-Faithfulness Explanations for Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2303.09171v1
- Date: Thu, 16 Mar 2023 09:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 16:06:56.381730
- Title: Fine-Grained and High-Faithfulness Explanations for Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークのための細粒度・高精細度説明
- Authors: Changqing Qiu, Fusheng Jin, Yining Zhang
- Abstract要約: 本稿では,CAM法を拡張したFG-CAMを提案する。
提案手法は, CAM法の特徴を変化させることなく, CAM法の欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明も生成する。
- 参考スコア(独自算出の注目度): 2.4063592468412276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, explaining CNNs has become a research hotspot. CAM (Class
Activation Map)-based methods and LRP (Layer-wise Relevance Propagation) method
are two common explanation methods. However, due to the small spatial
resolution of the last convolutional layer, the CAM-based methods can often
only generate coarse-grained visual explanations that provide a coarse location
of the target object. LRP and its variants, on the other hand, can generate
fine-grained explanations. But the faithfulness of the explanations is too low.
In this paper, we propose FG-CAM (fine-grained CAM), which extends the
CAM-based methods to generate fine-grained visual explanations with high
faithfulness. FG-CAM uses the relationship between two adjacent layers of
feature maps with resolution difference to gradually increase the explanation
resolution, while finding the contributing pixels and filtering out the pixels
that do not contribute at each step. Our method not only solves the shortcoming
of CAM-based methods without changing their characteristics, but also generates
fine-grained explanations that have higher faithfulness than LRP and its
variants. We also present FG-CAM with denoising, which is a variant of FG-CAM
and is able to generate less noisy explanations with almost no change in
explanation faithfulness. Experimental results show that the performance of
FG-CAM is almost unaffected by the explanation resolution. FG-CAM outperforms
existing CAM-based methods significantly in the both shallow and intermediate
convolutional layers, and outperforms LRP and its variations significantly in
the input layer.
- Abstract(参考訳): 近年,CNNについての説明がホットスポットとなっている。
CAM(Class Activation Map)法とLRP(Layer-wise Relevance Propagation)法は2つの一般的な説明法である。
しかし、最後の畳み込み層の小さな空間分解能のため、CAMベースの手法は、ターゲットの粗い位置を提供する粗い粒度の視覚的説明しか生成できないことが多い。
一方、lrpとその変種は、細かな説明を生成することができる。
しかし、説明の忠実さは低すぎる。
本稿では,高忠実度で細粒度な視覚的説明を生成するために,カムベース手法を拡張したfg-camを提案する。
FG-CAMは、隣り合う2つの特徴写像と解像度差の関係を利用して、徐々に説明分解能を高めつつ、寄与画素を見つけ、各ステップで寄与しない画素をフィルタリングする。
提案手法は, CAM法の特徴を変化させることなく, その欠点を解消するだけでなく, LRPとその変種よりも忠実である詳細な説明を生成する。
また,FG-CAMはFG-CAMの変種であり,説明の忠実度にはほとんど変化がなく,ノイズの少ない説明を生成できる。
実験結果から,FG-CAMの性能にはほとんど影響がないことが明らかとなった。
FG-CAMは、浅い畳み込み層と中間の畳み込み層の両方において既存のCAM法を著しく上回り、入力層においてLPPとその変動を著しく上回ります。
関連論文リスト
- Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - PCAM: Product of Cross-Attention Matrices for Rigid Registration of
Point Clouds [79.99653758293277]
PCAMは、キー要素がクロスアテンション行列のポイントワイズ積であるニューラルネットワークである。
そこで本研究では,PCAMがステップ(a)とステップ(b)をディープネットを介して共同で解決する手法によって,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-04T09:23:27Z) - F-CAM: Full Resolution CAM via Guided Parametric Upscaling [20.609010268320013]
クラスアクティベーションマッピング(CAM)メソッドは、最近、弱い教師付きオブジェクトローカライゼーション(WSOL)タスクに多くの注目を集めている。
CAMメソッドは通常、ResNet50のような既製のCNNバックボーンに統合される。
完全分解能CAMを高精度に構築できるCAMのパラメトリックアップスケーリング法を提案する。
論文 参考訳(メタデータ) (2021-09-15T04:45:20Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [102.89400044464735]
我々は、より強力で堅牢な表現を学習するトランスフォーマーエンコーダを採用する。
ポリプのイメージ取得効果と解像特性を考慮すると、3つの新しいモジュールを導入する。
提案モデルでは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Adapting Grad-CAM for Embedding Networks [35.72501942570962]
組込みネットワークに対するGrad-CAM法の適応性を提案する。
まず、Grad-CAMの安定性を向上させるために、複数のトレーニング例からグラデートウェイトを集約する。
そこで我々は,バックプロパゲーションを伴わない任意の画像に対する決定を効率的に説明するための重み移動法を開発した。
論文 参考訳(メタデータ) (2020-01-17T21:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。