論文の概要: Uncertainty Propagation in XAI: A Comparison of Analytical and Empirical Estimators
- arxiv url: http://arxiv.org/abs/2504.03736v1
- Date: Tue, 01 Apr 2025 07:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:15:29.150616
- Title: Uncertainty Propagation in XAI: A Comparison of Analytical and Empirical Estimators
- Title(参考訳): XAIにおける不確実性伝播 : 分析的および経験的推定器の比較
- Authors: Teodor Chiaburu, Felix Bießmann, Frank Haußer,
- Abstract要約: 説明可能なAI(XAI)の不確実性を理解することは、信頼の構築に不可欠である。
本稿では,XAIにおける不確実性を定量化し,解釈するための統一的な枠組みを提案する。
分析的および実証的な説明分散の推定値を用いて、説明の不確かさが説明に与える影響を評価する体系的な手段を提供する。
- 参考スコア(独自算出の注目度): 1.0855602842179624
- License:
- Abstract: Understanding uncertainty in Explainable AI (XAI) is crucial for building trust and ensuring reliable decision-making in Machine Learning models. This paper introduces a unified framework for quantifying and interpreting Uncertainty in XAI by defining a general explanation function $e_{\theta}(x, f)$ that captures the propagation of uncertainty from key sources: perturbations in input data and model parameters. By using both analytical and empirical estimates of explanation variance, we provide a systematic means of assessing the impact uncertainty on explanations. We illustrate the approach using a first-order uncertainty propagation as the analytical estimator. In a comprehensive evaluation across heterogeneous datasets, we compare analytical and empirical estimates of uncertainty propagation and evaluate their robustness. Extending previous work on inconsistencies in explanations, our experiments identify XAI methods that do not reliably capture and propagate uncertainty. Our findings underscore the importance of uncertainty-aware explanations in high-stakes applications and offer new insights into the limitations of current XAI methods. The code for the experiments can be found in our repository at https://github.com/TeodorChiaburu/UXAI
- Abstract(参考訳): 説明可能なAI(XAI)の不確実性を理解することは、マシンラーニングモデルにおける信頼の構築と信頼性の高い意思決定を保証するために不可欠である。
本稿では,入力データとモデルパラメータの摂動から不確実性の伝播を捉える一般説明関数 $e_{\theta}(x, f)$ を定義することで,XAIの不確かさの定量化と解釈を行う統一フレームワークを提案する。
分析的および実証的な説明分散の推定値を用いて、説明の不確かさが説明に与える影響を評価する体系的な手段を提供する。
解析的推定器として一階不確実性伝播を用いた手法について述べる。
異種データセット間の包括的評価において、不確実性伝播の分析的および経験的推定値を比較し、その堅牢性を評価する。
これまでの説明の不整合性に関する研究を拡張して,不確実性を確実に把握・伝播しないXAI手法を検証した。
本研究は, 高精度アプリケーションにおける不確実性を考慮した説明の重要性を強調し, 現状のXAI手法の限界に対する新たな洞察を提供するものである。
実験のコードは、https://github.com/TeodorChiaburu/UXAIのリポジトリにある。
関連論文リスト
- Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Explainability through uncertainty: Trustworthy decision-making with neural networks [1.104960878651584]
不確実性は、あらゆる機械学習モデルの主要な特徴である。
ニューラルネットワークでは特に重要であり、過信されがちである。
XAIとしての不確実性は、下流の意思決定タスクにおけるモデルの信頼性を改善する。
論文 参考訳(メタデータ) (2024-03-15T10:22:48Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Information-theoretic Analysis of Test Data Sensitivity in Uncertainty [32.27260899727789]
Xu と Raginsky 2022 による最近の分析は、ベイズ予想の不確実性を2つの不確実性に厳密に分解した。
彼らはこれらの不確実性を情報理論的に分析し、モデルが適切に特定され、モデルのパラメータを潜伏変数として扱うと仮定した。
本研究では, 予測不確実性に対する新しい分解法を用いて, このような不確実性について検討する。
論文 参考訳(メタデータ) (2023-07-23T23:42:06Z) - Causality-Aware Local Interpretable Model-Agnostic Explanations [7.412445894287709]
本稿では,インスタンスを取り巻くデータ内の明確な因果関係をエンコードする,広く使われている局所的およびモデルに依存しない説明器の拡張を提案する。
提案手法は,ブラックボックスモデルのメカニズムと生成した説明の一貫性と信頼性を忠実に再現する上で,元の手法を克服する。
論文 参考訳(メタデータ) (2022-12-10T10:12:27Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。