論文の概要: Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value
- arxiv url: http://arxiv.org/abs/2208.03608v2
- Date: Tue, 9 Aug 2022 04:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 10:25:51.412465
- Title: Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value
- Title(参考訳): shap-cam:shapley値に基づく畳み込みニューラルネットワークの視覚的説明
- Authors: Quan Zheng, Ziwei Wang, Jie Zhou, and Jiwen Lu
- Abstract要約: クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
- 参考スコア(独自算出の注目度): 86.69600830581912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining deep convolutional neural networks has been recently drawing
increasing attention since it helps to understand the networks' internal
operations and why they make certain decisions. Saliency maps, which emphasize
salient regions largely connected to the network's decision-making, are one of
the most common ways for visualizing and analyzing deep networks in the
computer vision community. However, saliency maps generated by existing methods
cannot represent authentic information in images due to the unproven proposals
about the weights of activation maps which lack solid theoretical foundation
and fail to consider the relations between each pixel. In this paper, we
develop a novel post-hoc visual explanation method called Shap-CAM based on
class activation mapping. Unlike previous gradient-based approaches, Shap-CAM
gets rid of the dependence on gradients by obtaining the importance of each
pixel through Shapley value. We demonstrate that Shap-CAM achieves better
visual performance and fairness for interpreting the decision making process.
Our approach outperforms previous methods on both recognition and localization
tasks.
- Abstract(参考訳): 深層畳み込みニューラルネットワークの説明は、ネットワークの内部操作と、それが決定を下す理由を理解するのに役立つため、最近注目を集めている。
サージェンシーマップは、ネットワークの意思決定に大きく関係している健全な領域を強調するもので、コンピュータビジョンコミュニティにおけるディープネットワークを視覚化し分析する最も一般的な方法の1つである。
しかし, 従来の手法で生成したサリエンシマップは, 各画素間の関係を考慮せず, 確固とした理論的基礎を欠いた活性化マップの重みに関する未証明の提案のため, 画像内の真正情報を表現することができない。
本稿では,クラスアクティベーションマッピングに基づいて,shap-camと呼ばれるポストホックな視覚説明手法を開発した。
従来の勾配に基づくアプローチとは異なり、Shap-CAMはShapley値を通じて各ピクセルの重要性を得ることにより勾配への依存を取り除く。
意思決定プロセスの解釈において,Shap-CAMがより良い視覚的性能と公平性を実現することを示す。
本手法は,認識課題と局所課題の両方において,従来の手法よりも優れている。
関連論文リスト
- Explaining Deep Neural Networks for Point Clouds using Gradient-based
Visualisations [1.2891210250935146]
本研究では,非構造化3次元データの分類を目的としたネットワークの粗い視覚的説明を生成する手法を提案する。
提案手法では,最終特徴写像層に逆流する勾配を用いて,これらの値を入力点クラウド内の対応する点の寄与としてマップする。
このアプローチの汎用性は、シングルオブジェクトネットワークのPointNet、PointNet++、DGCNN、a'scene'ネットワークのVoteNetなど、さまざまなポイントクラウド分類ネットワークでテストされている。
論文 参考訳(メタデータ) (2022-07-26T15:42:08Z) - Poly-CAM: High resolution class activation map for convolutional neural
networks [88.29660600055715]
畳み込みニューラルネットワークから派生した 解像度マップは 画像の特徴が ネットワーク予測を正当化する 精度で 位置決めに失敗する
これは、これらの写像が CAM (Zhou et al., 2016) のように低分解能であるか、摂動法 (Zeiler and Fergus, 2014) で滑らかであるか、あるいは広範囲に広がるピーク点に対応するためである。
対照的に、我々の研究は、以前のネットワークレイヤからの情報と後のレイヤからの情報を組み合わせて、高解像度のClass Activation Mapを作成することを提案する。
論文 参考訳(メタデータ) (2022-04-28T09:06:19Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Enhancing Deep Neural Network Saliency Visualizations with Gradual
Extrapolation [0.0]
Grad-CAMやExcit Backpropagationのようなクラスアクティベーションマッピング手法の拡張手法を提案する。
我々のアイデアはGradual Extrapolationと呼ばれ、出力をシャープすることでヒートマップ画像を生成するメソッドを補うことができる。
論文 参考訳(メタデータ) (2021-04-11T07:39:35Z) - White Box Methods for Explanations of Convolutional Neural Networks in
Image Classification Tasks [3.3959642559854357]
畳み込みニューラルネットワーク(CNN)は,画像分類作業における技術性能の状態を実証している。
ネットワークによる予測の背後にある推論を理解するために、いくつかのアプローチが提案されている。
我々は、ネットワークの内部アーキテクチャの情報を利用してその決定を説明するホワイトボックスメソッドに重点を置いている。
論文 参考訳(メタデータ) (2021-04-06T14:40:00Z) - Integrated Grad-CAM: Sensitivity-Aware Visual Explanation of Deep
Convolutional Networks via Integrated Gradient-Based Scoring [26.434705114982584]
Grad-CAMは、モデルから得られたアクティベーションマップを組み合わせて視覚化する一般的なソリューションである。
Grad-CAMのグラデーションベース項のパス積分を計算することで、この問題に取り組むソリューションを紹介します。
CNNの予測のために抽出された表現の重要性を計測する手法で達成した改善を徹底した分析を行います。
論文 参考訳(メタデータ) (2021-02-15T19:21:46Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations [15.067369314723958]
本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。