論文の概要: LIFT-CAM: Towards Better Explanations for Class Activation Mapping
- arxiv url: http://arxiv.org/abs/2102.05228v1
- Date: Wed, 10 Feb 2021 02:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:36:57.872218
- Title: LIFT-CAM: Towards Better Explanations for Class Activation Mapping
- Title(参考訳): LIFT-CAM:クラスアクティベーションマッピングのより良い説明を目指して
- Authors: Hyungsik Jung and Youngrock Oh
- Abstract要約: クラスアクティベーションマッピング(CAM)に基づく手法は,CNNからのアクティベーションマップの線形結合による視覚的説明マップを生成する。
LIFT-CAMと呼ばれる効率的な近似法を提案する。
定性的かつ定量的な面において、他のCAMベースの方法よりも優れたパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing demands for understanding the internal behaviors of convolutional
neural networks (CNNs) have led to remarkable improvements in explanation
methods. Particularly, several class activation mapping (CAM) based methods,
which generate visual explanation maps by a linear combination of activation
maps from CNNs, have been proposed. However, the majority of the methods lack a
theoretical basis in how to assign their weighted linear coefficients. In this
paper, we revisit the intrinsic linearity of CAM w.r.t. the activation maps.
Focusing on the linearity, we construct an explanation model as a linear
function of binary variables which denote the existence of the corresponding
activation maps. With this approach, the explanation model can be determined by
the class of additive feature attribution methods which adopts SHAP values as a
unified measure of feature importance. We then demonstrate the efficacy of the
SHAP values as the weight coefficients for CAM. However, the exact SHAP values
are incalculable. Hence, we introduce an efficient approximation method,
referred to as LIFT-CAM. On the basis of DeepLIFT, our proposed method can
estimate the true SHAP values quickly and accurately. Furthermore, it achieves
better performances than the other previous CAM-based methods in qualitative
and quantitative aspects.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の内部動作を理解するための要求の増加は、説明方法の大幅な改善につながった。
特に,cnnからのアクティベーションマップの線形結合により視覚的説明マップを生成する複数のクラスアクティベーションマッピング(cam)ベースの手法が提案されている。
しかし、ほとんどの手法は重み付き線形係数の割り当て方法に関する理論的基礎を欠いている。
本稿では, CAM w.r.t の固有線型性を再考する。
アクティベーションマップ。
線形性に着目して,対応する活性化写像の存在を表す二項変数の線形関数として説明モデルを構築する。
このアプローチでは、説明モデルは、特徴の重要性の統一尺度としてshap値を採用する付加的特徴帰属メソッドのクラスによって決定できる。
次に,CAMの重量係数としてSHAP値の有効性を示す。
しかし、正確なSHAP値は計算できません。
そこで,LIFT-CAMと呼ばれる効率的な近似法を提案する。
DeepLIFTに基づいて,提案手法は真のSHAP値を迅速かつ正確に推定することができる。
さらに、他のCAMベースの方法よりも定性的および定量的な面で優れたパフォーマンスを実現します。
関連論文リスト
- Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - Generalized Low-Rank Update: Model Parameter Bounds for Low-Rank
Training Data Modifications [16.822770693792823]
少数のインスタンスや機能が加えられたり削除されたりした場合に最適なモデルが得られるインクリメンタル機械学習(ML)手法を開発した。
この問題は、クロスバリデーション(CV)や特徴選択といったモデル選択において、実際に重要である。
本稿では,線形推定器の低ランク更新フレームワークを,正規化された経験的リスク最小化のクラスとして定式化したMLメソッドに拡張する一般低ランク更新(GLRU)手法を提案する。
論文 参考訳(メタデータ) (2023-06-22T05:00:11Z) - Opti-CAM: Optimizing saliency maps for interpretability [10.122899813335694]
CAMに基づくアイデアとマスキングに基づくアプローチを組み合わせたOpti-CAMを紹介する。
われわれのサリエンシマップは特徴マップを線形に組み合わせたもので、画像ごとに重みが最適化されている。
いくつかのデータセットでは、Opti-CAMは最も関連する分類基準に従って、他のCAMベースのアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2023-01-17T16:44:48Z) - Abs-CAM: A Gradient Optimization Interpretable Approach for Explanation
of Convolutional Neural Networks [7.71412567705588]
クラスアクティベーションマッピングに基づく手法は、コンピュータビジョンタスクにおけるモデルの内部決定を解釈するために広く用いられている。
バックプロパゲーションから導出される勾配を最適化する絶対値クラス活性化マッピング(Abs-CAM)法を提案する。
Abs-CAMのフレームワークは、2つのフェーズに分けられる。
論文 参考訳(メタデータ) (2022-07-08T02:06:46Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Reintroducing Straight-Through Estimators as Principled Methods for
Stochastic Binary Networks [85.94999581306827]
2重みとアクティベーションを持つニューラルネットワークのトレーニングは、勾配の欠如と離散重みよりも最適化が難しいため、難しい問題である。
多くの実験結果が経験的ストレートスルー(ST)アプローチで達成されている。
同時に、ST法はベルヌーイ重みを持つバイナリネットワーク(SBN)モデルにおける推定子として真に導出することができる。
論文 参考訳(メタデータ) (2020-06-11T23:58:18Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。