論文の概要: Uncertainty-Aware Explanations Through Probabilistic Self-Explainable Neural Networks
- arxiv url: http://arxiv.org/abs/2403.13740v1
- Date: Wed, 20 Mar 2024 16:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 16:08:57.406806
- Title: Uncertainty-Aware Explanations Through Probabilistic Self-Explainable Neural Networks
- Title(参考訳): 確率論的自己説明型ニューラルネットワークによる不確実性を考慮した説明
- Authors: Jon Vadillo, Roberto Santana, Jose A. Lozano, Marta Kwiatkowska,
- Abstract要約: プロトタイプベースの自己説明型ニューラルネットワークは、深いが透過的な設計アーキテクチャを提供する。
本稿では,PSENNの確率的再構成(Prob-PSENN)を導入する。
実験の結果, Prob-PSENN は確率的でないものよりも有意義でロバストな説明を提供することがわかった。
- 参考スコア(独自算出の注目度): 17.238290206236027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of transparency of Deep Neural Networks continues to be a limitation that severely undermines their reliability and usage in high-stakes applications. Promising approaches to overcome such limitations are Prototype-Based Self-Explainable Neural Networks (PSENNs), whose predictions rely on the similarity between the input at hand and a set of prototypical representations of the output classes, offering therefore a deep, yet transparent-by-design, architecture. So far, such models have been designed by considering pointwise estimates for the prototypes, which remain fixed after the learning phase of the model. In this paper, we introduce a probabilistic reformulation of PSENNs, called Prob-PSENN, which replaces point estimates for the prototypes with probability distributions over their values. This provides not only a more flexible framework for an end-to-end learning of prototypes, but can also capture the explanatory uncertainty of the model, which is a missing feature in previous approaches. In addition, since the prototypes determine both the explanation and the prediction, Prob-PSENNs allow us to detect when the model is making uninformed or uncertain predictions, and to obtain valid explanations for them. Our experiments demonstrate that Prob-PSENNs provide more meaningful and robust explanations than their non-probabilistic counterparts, thus enhancing the explainability and reliability of the models.
- Abstract(参考訳): Deep Neural Networksの透明性の欠如は、ハイステークなアプリケーションにおける信頼性と使用を著しく損なう制限であり続けている。
このような制限を克服するためのプロトタイプベースの自己説明型ニューラルネットワーク(PSENN)は、手前の入力と出力クラスのプロトタイプ表現のセットとの類似性に依存しており、深いが透過的なアーキテクチャを提供する。
これまでのところ、そのようなモデルは、モデルの学習段階以降も固定されているプロトタイプの点推定を考慮し、設計されている。
本稿では,PSENNの確率的再構成(Prob-PSENN)を提案する。
これは、プロトタイプのエンドツーエンド学習のためのより柔軟なフレームワークを提供するだけでなく、以前のアプローチでは欠落していたモデルの説明的不確実性を捉えることもできる。
さらに, プロトタイプが説明と予測の両方を決定するので, Prob-PSENNはモデルが不確定または不確実な予測をしていることを検知し, 有効な説明を得る。
実験の結果, Prob-PSENN は確率的でないモデルよりも有意義で頑健な説明を提供し,モデルの説明可能性や信頼性を高めた。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - Towards Modeling Uncertainties of Self-explaining Neural Networks via
Conformal Prediction [34.87646720253128]
本稿では,自己説明型ニューラルネットワークのための新しい不確実性モデリングフレームワークを提案する。
生成した説明に対して,分布自由な不確実性モデリング性能を示す。
また、最終的な予測のために効率的で効果的な予測セットを生成することにも長けている。
論文 参考訳(メタデータ) (2024-01-03T05:51:49Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Robust uncertainty estimates with out-of-distribution pseudo-inputs
training [0.0]
我々は、信頼性のあるデータを与えられていない不確実性予測器を明示的に訓練することを提案する。
データ無しでは訓練できないので、入力空間の情報的低密度領域において擬似入力を生成するメカニズムを提供する。
総合的な評価により、様々なタスクにおける最先端性能を維持しながら、不確実性の頑健かつ解釈可能な予測が得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T17:15:07Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。