論文の概要: VOICE: Variance of Induced Contrastive Explanations to quantify Uncertainty in Neural Network Interpretability
- arxiv url: http://arxiv.org/abs/2406.00573v1
- Date: Sat, 1 Jun 2024 23:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 06:15:52.111054
- Title: VOICE: Variance of Induced Contrastive Explanations to quantify Uncertainty in Neural Network Interpretability
- Title(参考訳): VOICE:ニューラルネットワークの解釈可能性の不確かさを定量化するためのコントラスト説明のばらつき
- Authors: Mohit Prabhushankar, Ghassan AlRegib,
- Abstract要約: ニューラルネットワークの勾配に基づく視覚的説明の予測の不確かさを可視化し、定量化する。
視覚的なポストホック説明可能性のテクニックは、イメージ内の機能を強調して、ネットワークの予測を正当化する。
すべての画像,ネットワーク,予測,説明技術がユニークな不確実性を持っていることを示す。
- 参考スコア(独自算出の注目度): 15.864519662894034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we visualize and quantify the predictive uncertainty of gradient-based post hoc visual explanations for neural networks. Predictive uncertainty refers to the variability in the network predictions under perturbations to the input. Visual post hoc explainability techniques highlight features within an image to justify a network's prediction. We theoretically show that existing evaluation strategies of visual explanatory techniques partially reduce the predictive uncertainty of neural networks. This analysis allows us to construct a plug in approach to visualize and quantify the remaining predictive uncertainty of any gradient-based explanatory technique. We show that every image, network, prediction, and explanatory technique has a unique uncertainty. The proposed uncertainty visualization and quantification yields two key observations. Firstly, oftentimes under incorrect predictions, explanatory techniques are uncertain about the same features that they are attributing the predictions to, thereby reducing the trustworthiness of the explanation. Secondly, objective metrics of an explanation's uncertainty, empirically behave similarly to epistemic uncertainty. We support these observations on two datasets, four explanatory techniques, and six neural network architectures. The code is available at https://github.com/olivesgatech/VOICE-Uncertainty.
- Abstract(参考訳): 本稿では,ニューラルネットワークに対する勾配に基づくポストホック視覚的説明の予測的不確かさを可視化し,定量化する。
予測の不確実性は、入力に対する摂動下でのネットワーク予測のばらつきを指す。
視覚的なポストホック説明可能性のテクニックは、イメージ内の機能を強調して、ネットワークの予測を正当化する。
理論的には、既存の視覚説明手法の評価戦略は、ニューラルネットワークの予測不確実性を部分的に減少させる。
この分析により、勾配に基づく説明手法の残りの予測不確かさを可視化し、定量化するためのプラグインアプローチを構築することができる。
すべての画像,ネットワーク,予測,説明技術がユニークな不確実性を持っていることを示す。
提案された不確実性可視化と定量化は、2つの重要な観測結果をもたらす。
第一に、しばしば誤った予測の下で、説明技法は、彼らが予測に寄与しているのと同じ特徴について不確実であり、それによって説明の信頼性が低下する。
第二に、説明の不確実性の客観的な指標は、経験的に疫学的不確実性と同様に振る舞う。
これらの観測は、2つのデータセット、4つの説明技法、6つのニューラルネットワークアーキテクチャで支援する。
コードはhttps://github.com/olivesgatech/VOICE-Uncertaintyで公開されている。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Kernelized Concept Erasure [108.65038124096907]
概念消去のための線形ミニマックスゲームのカーネル化を提案する。
特定の非線形敵が概念を予測するのを防ぐことができる。
しかし、保護は異なる非線形敵に移動しない。
論文 参考訳(メタデータ) (2022-01-28T15:45:13Z) - Bayesian Neural Networks for Reversible Steganography [0.7614628596146599]
ベイズ深層学習の理論的枠組みに基づく予測モデルにおける不確実性を検討することを提案する。
我々はモンテカルロサンプリングによる後方予測分布を可逆な前方通過で近似した。
予測の不確実性はアレータリックな不確実性に切り離すことができ、これらの量は教師なしの方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2022-01-07T14:56:33Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Learnable Uncertainty under Laplace Approximations [65.24701908364383]
我々は、予測そのものに分離された方法で不確実性を明示的に「訓練」するために形式主義を発展させる。
これらのユニットは不確実性を認識した目標によってトレーニング可能であり、標準的なラプラス近似の性能を向上させることができる。
論文 参考訳(メタデータ) (2020-10-06T13:43:33Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。