論文の概要: Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring
- arxiv url: http://arxiv.org/abs/2102.07805v1
- Date: Mon, 15 Feb 2021 19:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:05:32.719953
- Title: Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring
- Title(参考訳): integrated grad-cam:integrated gradient-based scoringによる深層畳み込みネットワークの感度認識ビジュアル説明
- Authors: Sam Sattarzadeh, Mahesh Sudhakar, Konstantinos N. Plataniotis,
Jongseong Jang, Yeonjeong Jeong, Hyunwoo Kim
- Abstract要約: Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
Grad-CAMのグラデーションベース項のパス積分を計算することで、この問題に取り組むソリューションを紹介します。
CNNの予測のために抽出された表現の重要性を計測する手法で達成した改善を徹底した分析を行います。
- 参考スコア(独自算出の注目度): 26.434705114982584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visualizing the features captured by Convolutional Neural Networks (CNNs) is
one of the conventional approaches to interpret the predictions made by these
models in numerous image recognition applications. Grad-CAM is a popular
solution that provides such a visualization by combining the activation maps
obtained from the model. However, the average gradient-based terms deployed in
this method underestimates the contribution of the representations discovered
by the model to its predictions. Addressing this problem, we introduce a
solution to tackle this issue by computing the path integral of the
gradient-based terms in Grad-CAM. We conduct a thorough analysis to demonstrate
the improvement achieved by our method in measuring the importance of the
extracted representations for the CNN's predictions, which yields to our
method's administration in object localization and model interpretation.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)が捉えた特徴の可視化は、これらのモデルによる予測を多くの画像認識アプリケーションで解釈するための従来の手法の一つである。
Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
しかし、この方法で展開された平均勾配ベースの用語は、モデルが予測に発見した表現の貢献を過小評価します。
そこで、グラッドCAMのグラデーションに基づく項の経路積分を計算することで、この問題に取り組むソリューションを紹介します。
提案手法は,cnnの予測における抽出表現の重要性を計測し,対象の局所化とモデル解釈における手法の管理に寄与することを示すため,詳細な分析を行った。
関連論文リスト
- Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Interpretation of Neural Networks is Susceptible to Universal Adversarial Perturbations [9.054540533394926]
本稿では,標準画像データセットにUniversal Perturbation for Interpretation (UPI)が存在することを示す。
本稿では、ニューラルネットワークの勾配に基づく解釈を異なるサンプルで効果的に変更可能な、主成分分析(PCA)に基づくUPI計算手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T15:55:40Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Generalizing Adversarial Explanations with Grad-CAM [7.165984630575092]
本稿では,Grad-CAMを例ベースの説明からグローバルモデル動作を説明する方法まで拡張する手法を提案する。
実験では,VGG16,ResNet50,ResNet101などの深層モデルと,InceptionNetv3やXceptionNetのような広層モデルに対する敵攻撃について検討した。
提案手法は、画像解析のためのブラックボックスCNNモデルの振る舞いを解析し、敵攻撃を理解するために利用できる。
論文 参考訳(メタデータ) (2022-04-11T22:09:21Z) - Enhancing Deep Neural Network Saliency Visualizations with Gradual
Extrapolation [0.0]
Grad-CAMやExcit Backpropagationのようなクラスアクティベーションマッピング手法の拡張手法を提案する。
我々のアイデアはGradual Extrapolationと呼ばれ、出力をシャープすることでヒートマップ画像を生成するメソッドを補うことができる。
論文 参考訳(メタデータ) (2021-04-11T07:39:35Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Towards Interpretable Semantic Segmentation via Gradient-weighted Class
Activation Mapping [71.91734471596432]
本稿では,セマンティックセグメンテーションの解法としてSEG-GRAD-CAMを提案する。
本手法は,各画素のセグメンテーションに対する関連性を示すヒートマップを作成するために局所的に適用された広く使われているGrad-CAM法の拡張である。
論文 参考訳(メタデータ) (2020-02-26T12:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。