論文の概要: UbiQTree: Uncertainty Quantification in XAI with Tree Ensembles
- arxiv url: http://arxiv.org/abs/2508.09639v1
- Date: Wed, 13 Aug 2025 09:20:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.831019
- Title: UbiQTree: Uncertainty Quantification in XAI with Tree Ensembles
- Title(参考訳): UbiQTree: ツリーアンサンブルを備えたXAIの不確実性定量化
- Authors: Akshat Dubey, Aleksandar Anžel, Bahar İlgen, Georges Hattab,
- Abstract要約: そこで本研究では,SHAP値の不確かさを動脈,てんかん,結束成分に分解する手法を提案する。
本手法は実世界の3つのユースケースにまたがって記述的統計解析を用いて検証する。
この理解は、堅牢な意思決定プロセスの開発と、高度なアプリケーションにおけるモデルの改良を導くことができる。
- 参考スコア(独自算出の注目度): 42.37986459997699
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) techniques, such as SHapley Additive exPlanations (SHAP), have become essential tools for interpreting complex ensemble tree-based models, especially in high-stakes domains such as healthcare analytics. However, SHAP values are usually treated as point estimates, which disregards the inherent and ubiquitous uncertainty in predictive models and data. This uncertainty has two primary sources: aleatoric and epistemic. The aleatoric uncertainty, which reflects the irreducible noise in the data. The epistemic uncertainty, which arises from a lack of data. In this work, we propose an approach for decomposing uncertainty in SHAP values into aleatoric, epistemic, and entanglement components. This approach integrates Dempster-Shafer evidence theory and hypothesis sampling via Dirichlet processes over tree ensembles. We validate the method across three real-world use cases with descriptive statistical analyses that provide insight into the nature of epistemic uncertainty embedded in SHAP explanations. The experimentations enable to provide more comprehensive understanding of the reliability and interpretability of SHAP-based attributions. This understanding can guide the development of robust decision-making processes and the refinement of models in high-stakes applications. Through our experiments with multiple datasets, we concluded that features with the highest SHAP values are not necessarily the most stable. This epistemic uncertainty can be reduced through better, more representative data and following appropriate or case-desired model development techniques. Tree-based models, especially bagging, facilitate the effective quantification of epistemic uncertainty.
- Abstract(参考訳): SHAP(SHapley Additive ExPlanations)のような説明可能な人工知能(XAI)技術は、複雑なアンサンブルツリーモデル、特に医療分析のような高度な領域を解釈するための重要なツールとなっている。
しかし、SHAP値は通常点推定として扱われ、予測モデルやデータに固有の不確実性や不確実性は無視される。
この不確実性には2つの主要な原因がある。
データの既約ノイズを反映するアレタリック不確実性。
データ不足から生じるてんかんの不確実性。
本研究では,SHAP値の不確実性をアレータリック,エピステミック,エンタングルメントに分解する手法を提案する。
このアプローチは、Dempster-Shaferエビデンス理論と、ツリーアンサンブル上のディリクレ過程による仮説サンプリングを統合する。
本手法は実世界の3つのユースケースにまたがって検証され,SHAP説明に埋め込まれた上皮性不確実性の性質に関する知見を提供する。
この実験により、SHAPベースの属性の信頼性と解釈可能性をより包括的に理解することができる。
この理解は、堅牢な意思決定プロセスの開発と、高度なアプリケーションにおけるモデルの改良を導くことができる。
複数のデータセットを用いた実験を通して、最高のSHAP値を持つ機能は必ずしも最も安定しているとは限らないと結論づけた。
この疫学的不確実性は、より良く、より代表的なデータと、適切なまたはケース望まれるモデル開発技術によって低減することができる。
木に基づくモデル、特にバギングは、てんかんの不確実性の効果的な定量化を促進する。
関連論文リスト
- Uncertainty Propagation in XAI: A Comparison of Analytical and Empirical Estimators [1.0855602842179624]
説明可能なAI(XAI)の不確実性を理解することは、信頼の構築に不可欠である。
本稿では,XAIにおける不確実性を定量化し,解釈するための統一的な枠組みを提案する。
分析的および実証的な説明分散の推定値を用いて、説明の不確かさが説明に与える影響を評価する体系的な手段を提供する。
論文 参考訳(メタデータ) (2025-04-01T07:06:31Z) - Nonparametric Factor Analysis and Beyond [14.232694150264628]
非無視設定における潜伏変数を識別するための一般的なフレームワークを提案する。
生成モデルは,非無視ノイズの存在下においても,ある部分多様体不確定性まで同定可能であることを示す。
また、対応する推定手法を開発し、様々な合成および実世界の設定で検証した。
論文 参考訳(メタデータ) (2025-03-21T05:45:03Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
ガウス出力分布にニューラルネットワークを適用することにより,回帰の不確かさを予測分散として推定する。
このアプローチは、複雑な公表されたアプローチよりも確実に不確実性の影響を説明することができる。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - An Epistemic and Aleatoric Decomposition of Arbitrariness to Constrain the Set of Good Models [7.620967781722717]
最近の研究では、機械学習(ML)モデルがトレーニング手順の微妙な変更に対して非常に敏感であることが示されている。
安定性は, てんかん成分と動脈成分に分解され, 予測の一貫性と信頼性を捉える。
そこで本研究では,既存の精度と公平性の基準と合わせて,てんかんおよび失読の基準を含むモデル選択手法を提案し,良質なモデルの集合を絞り込むことに成功したことを示す。
論文 参考訳(メタデータ) (2023-02-09T09:35:36Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。