論文の概要: FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs
- arxiv url: http://arxiv.org/abs/2206.08792v1
- Date: Fri, 17 Jun 2022 14:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 14:11:18.299073
- Title: FD-CAM: Improving Faithfulness and Discriminability of Visual
Explanation for CNNs
- Title(参考訳): FD-CAM:CNNにおける視覚表現の忠実度と識別性の改善
- Authors: Hui Li, Zihao Li, Rui Ma, Tieru Wu
- Abstract要約: 畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
本稿では,CNNの視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
- 参考スコア(独自算出の注目度): 7.956110316017118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class activation map (CAM) has been widely studied for visual explanation of
the internal working mechanism of convolutional neural networks. The key of
existing CAM-based methods is to compute effective weights to combine
activation maps in the target convolution layer. Existing gradient and score
based weighting schemes have shown superiority in ensuring either the
discriminability or faithfulness of the CAM, but they normally cannot excel in
both properties. In this paper, we propose a novel CAM weighting scheme, named
FD-CAM, to improve both the faithfulness and discriminability of the CAM-based
CNN visual explanation. First, we improve the faithfulness and discriminability
of the score-based weights by performing a grouped channel switching operation.
Specifically, for each channel, we compute its similarity group and switch the
group of channels on or off simultaneously to compute changes in the class
prediction score as the weights. Then, we combine the improved score-based
weights with the conventional gradient-based weights so that the
discriminability of the final CAM can be further improved. We perform extensive
comparisons with the state-of-the-art CAM algorithms. The quantitative and
qualitative results show our FD-CAM can produce more faithful and more
discriminative visual explanations of the CNNs. We also conduct experiments to
verify the effectiveness of the proposed grouped channel switching and weight
combination scheme on improving the results. Our code is available at
https://github.com/crishhh1998/FD-CAM.
- Abstract(参考訳): 畳み込みニューラルネットワークの内部動作機構を視覚的に説明するために,クラスアクティベーションマップ(CAM)が広く研究されている。
既存のCAMベースの手法の鍵は、目標畳み込み層の活性化マップを結合する効果的な重みを計算することである。
既存の勾配とスコアに基づく重み付けスキームは、CAMの差別性または忠実性を保証する上で優位性を示しているが、それらは通常両方の特性において排他的ではない。
本稿では,CAMに基づくCNN視覚的説明の忠実度と差別性を両立させるため,FD-CAMと呼ばれる新しいCAM重み付け手法を提案する。
まず,グループ化チャネル切替操作を行うことで,スコアベース重みの忠実度と識別性を向上させる。
具体的には,各チャネルの類似度グループを計算し,同時にチャネルのグループをオン/オフにし,クラス予測スコアの変化を重みとして計算する。
そして,改良されたスコアベース重みと従来の勾配ベース重みを組み合わせることにより,最終的なCAMの識別性をさらに向上させることができる。
我々は最先端のCAMアルゴリズムと比較を行った。
定量的および質的な結果から,我々のFD-CAMはCNNのより忠実で差別的な視覚的説明を得られることが示された。
また,提案するグループ化チャネル切替方式と重み付け方式の有効性を検証する実験を行った。
私たちのコードはhttps://github.com/crishhh1998/fd-camで利用可能です。
関連論文リスト
- Leveraging CAM Algorithms for Explaining Medical Semantic Segmentation [4.818865062632567]
畳み込みニューラルネットワーク(CNN)は、近年のセグメンテーションタスクにおいて、一般的な結果を実現している。
CNNを解釈する1つの方法は、ヒートマップを表すクラスアクティベーションマップ(CAM)を使用することである。
本稿では,既存の分類法とセグメンテーションに基づく手法の間で,より詳細で説明可能な,一貫性のある結果の転送を提案する。
論文 参考訳(メタデータ) (2024-09-30T13:43:00Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Learning Partial Correlation based Deep Visual Representation for Image
Classification [61.0532370259644]
CNNの新たな構造層としてスパース逆共分散推定(SICE)を定式化する。
本研究は,部分的相関に基づく深部視覚表現を求め,小さなサンプル問題を緩和する。
実験により,本モデルの有効性と優れた分類性能が示された。
論文 参考訳(メタデータ) (2023-04-23T10:09:01Z) - Cluster-CAM: Cluster-Weighted Visual Interpretation of CNNs' Decision in
Image Classification [12.971559051829658]
Cluster-CAMは、効率的な勾配のないCNN解釈アルゴリズムである。
本稿では,クラスタ化された特徴写像から認識ベースマップと認識-シザーを鍛えるための巧妙な戦略を提案する。
論文 参考訳(メタデータ) (2023-02-03T10:38:20Z) - Orthogonal SVD Covariance Conditioning and Latent Disentanglement [65.67315418971688]
SVDメタ層をニューラルネットワークに挿入すると、共分散が不調和になる。
我々は最寄り直交勾配(NOG)と最適学習率(OLR)を提案する。
視覚認識実験は,共分散条件と一般化を同時に改善できることを実証した。
論文 参考訳(メタデータ) (2022-12-11T20:31:31Z) - Attention-based Class Activation Diffusion for Weakly-Supervised
Semantic Segmentation [98.306533433627]
クラスアクティベーションマップの抽出(CAM)は、弱教師付きセマンティックセグメンテーション(WSSS)の重要なステップである
本稿では,CAMとアテンション行列を確率的拡散法で結合する新しい手法を提案し,それをAD-CAMとダブする。
擬似ラベルとしてのAD-CAMは、最先端のCAMよりも強力なWSSSモデルが得られることを示す実験である。
論文 参考訳(メタデータ) (2022-11-20T10:06:32Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - Keep CALM and Improve Visual Feature Attribution [42.784665606132]
クラスアクティベーションマッピング(クラスアクティベーションマッピング、CAM)は、複数の視覚タスクのための特徴属性法の基礎となっている。
定式化における認識のためのキューの位置を符号化する潜在変数を明示的に組み込むことにより、CAMを改善する。
結果のモデルであるクラスアクティベーション潜在マッピング(CALM)は、期待最大化アルゴリズムを用いて訓練される。
論文 参考訳(メタデータ) (2021-06-15T03:33:25Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Axiom-based Grad-CAM: Towards Accurate Visualization and Explanation of
CNNs [29.731732363623713]
クラスアクティベーションマッピング(CAM)手法は,CNNの決定領域と画像領域の関連性を明らかにするために提案されている。
本稿では,CAM手法の可視化パラダイムに2つの公理(保存と感性)を導入する。
これらの公理をできるだけ満たすために、専用公理系Grad-CAM (XGrad-CAM) が提案されている。
論文 参考訳(メタデータ) (2020-08-05T18:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。