論文の概要: Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2004.10824v1
- Date: Wed, 22 Apr 2020 19:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:30:28.450800
- Title: Assessing the Reliability of Visual Explanations of Deep Models with
Adversarial Perturbations
- Title(参考訳): 対向摂動を伴う深部モデルの視覚的説明の信頼性の評価
- Authors: Dan Valle, Tiago Pimentel, Adriano Veloso
- Abstract要約: 本稿では,深層モデルの説明の信頼性を評価するための客観的尺度を提案する。
提案手法は,入力画像の逆方向の摂動によるネットワーク結果の変化に基づく。
我々はまた,本質的な説明を損なうことなく,より解釈可能な地図を創出し,関連性マップのクリーン化へのアプローチの直接的な適用を提案する。
- 参考スコア(独自算出の注目度): 15.067369314723958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interest in complex deep neural networks for computer vision applications
is increasing. This leads to the need for improving the interpretable
capabilities of these models. Recent explanation methods present visualizations
of the relevance of pixels from input images, thus enabling the direct
interpretation of properties of the input that lead to a specific output. These
methods produce maps of pixel importance, which are commonly evaluated by
visual inspection. This means that the effectiveness of an explanation method
is assessed based on human expectation instead of actual feature importance.
Thus, in this work we propose an objective measure to evaluate the reliability
of explanations of deep models. Specifically, our approach is based on changes
in the network's outcome resulting from the perturbation of input images in an
adversarial way. We present a comparison between widely-known explanation
methods using our proposed approach. Finally, we also propose a straightforward
application of our approach to clean relevance maps, creating more
interpretable maps without any loss in essential explanation (as per our
proposed measure).
- Abstract(参考訳): コンピュータビジョン応用のための複雑なディープニューラルネットワークへの関心が高まっている。
これにより、これらのモデルの解釈能力を改善する必要がある。
最近の説明手法では、入力画像からの画素の関連性を可視化することで、特定の出力につながる入力の特性を直接解釈することができる。
これらの手法は画像検査によって一般的に評価される画素重要度マップを生成する。
つまり、説明方法の有効性は、実際の特徴の重要性ではなく、人間の期待に基づいて評価される。
そこで本研究では,深層モデルの説明の信頼性を評価する客観的尺度を提案する。
具体的には,入力画像の摂動によるネットワーク結果の変化に基づくアプローチである。
本稿では,提案手法を用いた説明手法の比較を行った。
また,本提案手法では,本質的な説明を損なうことなく,より解釈可能な地図を作成する手法を提案する。
関連論文リスト
- Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - ADVISE: ADaptive Feature Relevance and VISual Explanations for
Convolutional Neural Networks [0.745554610293091]
本稿では,機能マップの各ユニットの関連性を定量化し,活用して視覚的説明を提供する新しい説明可能性手法であるADVISEを紹介する。
我々は、画像分類タスクにおいて、AlexNet、VGG16、ResNet50、XceptionをImageNetで事前訓練した上で、我々のアイデアを広く評価する。
さらに,ADVISEは衛生チェックをパスしながら,感度および実装独立性公理を満たすことを示す。
論文 参考訳(メタデータ) (2022-03-02T18:16:57Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Image Super-Resolution using Explicit Perceptual Loss [17.2448277365841]
生成した画像の知覚スコアを提供するために直接訓練された機械学習モデルを利用する方法を示す。
実験の結果、明示的なアプローチは他のアプローチよりも知覚スコアが高いことが示された。
論文 参考訳(メタデータ) (2020-09-01T12:22:39Z) - A generalizable saliency map-based interpretation of model outcome [1.14219428942199]
そこで本研究では,モデルの入力と出力を用いてサリエンシマップを生成する非侵襲的解釈可能性手法を提案する。
実験の結果,本手法は入力の正解部分を89%の精度で再現可能であることがわかった。
論文 参考訳(メタデータ) (2020-06-16T20:34:42Z) - Uncertainty based Class Activation Maps for Visual Question Answering [30.859101872119517]
本稿では,視覚的注意マップを提供する勾配に基づく確実性推定手法を提案する。
我々は,これらの推定値の勾配を用いて,より改良した現代確率的ディープラーニング手法を取り入れた。
提案手法は,深層学習モデルの精度向上と説明のためのレシピとみなすことができる。
論文 参考訳(メタデータ) (2020-01-23T19:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。