論文の概要: Robust Explanations Through Uncertainty Decomposition: A Path to Trustworthier AI
- arxiv url: http://arxiv.org/abs/2507.12913v1
- Date: Thu, 17 Jul 2025 09:00:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.418812
- Title: Robust Explanations Through Uncertainty Decomposition: A Path to Trustworthier AI
- Title(参考訳): 不確実性分解によるロバストな説明 - 信頼できるAIへの道
- Authors: Chenrui Zhu, Louenas Bounia, Vu Linh Nguyen, Sébastien Destercke, Arthur Hoarau,
- Abstract要約: 本稿では,古典的説明可能性法を補完する手法として,予測の不確実性を活用することを提案する。
疫学の不確実性は、信頼できない説明の拒絶基準として機能する。
本実験は, この不確実性認識アプローチが説明の堅牢性と到達性に与える影響を実証するものである。
- 参考スコア(独自算出の注目度): 4.1942958779358674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in machine learning have emphasized the need for transparency in model predictions, particularly as interpretability diminishes when using increasingly complex architectures. In this paper, we propose leveraging prediction uncertainty as a complementary approach to classical explainability methods. Specifically, we distinguish between aleatoric (data-related) and epistemic (model-related) uncertainty to guide the selection of appropriate explanations. Epistemic uncertainty serves as a rejection criterion for unreliable explanations and, in itself, provides insight into insufficient training (a new form of explanation). Aleatoric uncertainty informs the choice between feature-importance explanations and counterfactual explanations. This leverages a framework of explainability methods driven by uncertainty quantification and disentanglement. Our experiments demonstrate the impact of this uncertainty-aware approach on the robustness and attainability of explanations in both traditional machine learning and deep learning scenarios.
- Abstract(参考訳): 機械学習の最近の進歩は、モデル予測における透明性の必要性を強調している。
本稿では,古典的説明可能性法を補完する手法として,予測の不確実性を活用することを提案する。
具体的には,アラート性(データ関連)とてんかん性(モデル関連)を区別し,適切な説明の選択を導く。
疫学の不確実性は、信頼できない説明の拒絶基準として機能し、それ自体は不十分な訓練(新しい説明形式)についての洞察を提供する。
照会の不確実性は、特徴重要説明と反実的説明のどちらかの選択を知らせる。
これは不確実な定量化と非絡み合いによって駆動される説明可能性の手法の枠組みを利用する。
我々の実験は、従来の機械学習とディープラーニングの両方のシナリオにおいて、この不確実性を認識したアプローチが説明の堅牢性と到達性に与える影響を実証している。
関連論文リスト
- Uncertainty Propagation in XAI: A Comparison of Analytical and Empirical Estimators [1.0855602842179624]
説明可能なAI(XAI)の不確実性を理解することは、信頼の構築に不可欠である。
本稿では,XAIにおける不確実性を定量化し,解釈するための統一的な枠組みを提案する。
分析的および実証的な説明分散の推定値を用いて、説明の不確かさが説明に与える影響を評価する体系的な手段を提供する。
論文 参考訳(メタデータ) (2025-04-01T07:06:31Z) - Conceptualizing Uncertainty [45.370565359867534]
機械学習の不確かさは、モデルの予測における信頼度や欠如度を指す。
本稿では,概念アクティベーションベクトルを用いて,高次元データ分類設定の不確実性を説明する。
モデルの改良と改良にそれらを活用することで、生成された説明の有用性を実証する。
論文 参考訳(メタデータ) (2025-03-05T12:24:12Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Ensured: Explanations for Decreasing the Epistemic Uncertainty in Predictions [1.2289361708127877]
認識の不確実性は、品質を説明するために重要な次元を付け加える。
我々は、この不確実性を特に狙う新しいタイプの説明を紹介します。
我々は、ユーザが最も信頼できる説明を識別できるように設計された新しい指標、保証されたランキングを導入する。
論文 参考訳(メタデータ) (2024-10-07T20:21:51Z) - On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.752418052725126]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Investigating the Impact of Model Instability on Explanations and Uncertainty [43.254616360807496]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Explaining Predictive Uncertainty by Exposing Second-Order Effects [13.83164409095901]
本稿では,2次効果に基づく予測不確実性を説明する新しい手法を提案する。
提案手法は一般に適用可能であり,一般的な帰属手法を強力な二次不確実性説明器に変換することができる。
論文 参考訳(メタデータ) (2024-01-30T21:02:21Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
ガウス出力分布にニューラルネットワークを適用することにより,回帰の不確かさを予測分散として推定する。
このアプローチは、複雑な公表されたアプローチよりも確実に不確実性の影響を説明することができる。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。