論文の概要: Reliable Explanations or Random Noise? A Reliability Metric for XAI
- arxiv url: http://arxiv.org/abs/2602.05082v1
- Date: Wed, 04 Feb 2026 22:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.639056
- Title: Reliable Explanations or Random Noise? A Reliability Metric for XAI
- Title(参考訳): 信頼性説明とランダムノイズ : XAIの信頼性基準
- Authors: Poushali Sengupta, Sabita Maharjan, Frank Eliassen, Shashi Raj Pandey, Yan Zhang,
- Abstract要約: 本研究では、4つの信頼性公理の下で説明安定性を定量化する指標である説明信頼性指数(ERI)を紹介する。
ERIは、説明信頼性の原則的評価を可能にし、より信頼できるAI(XAI)システムをサポートする。
- 参考スコア(独自算出の注目度): 6.948460965107209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, explaining decisions made by complex machine learning models has become essential in high-stakes domains such as energy systems, healthcare, finance, and autonomous systems. However, the reliability of these explanations, namely, whether they remain stable and consistent under realistic, non-adversarial changes, remains largely unmeasured. Widely used methods such as SHAP and Integrated Gradients (IG) are well-motivated by axiomatic notions of attribution, yet their explanations can vary substantially even under system-level conditions, including small input perturbations, correlated representations, and minor model updates. Such variability undermines explanation reliability, as reliable explanations should remain consistent across equivalent input representations and small, performance-preserving model changes. We introduce the Explanation Reliability Index (ERI), a family of metrics that quantifies explanation stability under four reliability axioms: robustness to small input perturbations, consistency under feature redundancy, smoothness across model evolution, and resilience to mild distributional shifts. For each axiom, we derive formal guarantees, including Lipschitz-type bounds and temporal stability results. We further propose ERI-T, a dedicated measure of temporal reliability for sequential models, and introduce ERI-Bench, a benchmark designed to systematically stress-test explanation reliability across synthetic and real-world datasets. Experimental results reveal widespread reliability failures in popular explanation methods, showing that explanations can be unstable under realistic deployment conditions. By exposing and quantifying these instabilities, ERI enables principled assessment of explanation reliability and supports more trustworthy explainable AI (XAI) systems.
- Abstract(参考訳): 近年、エネルギーシステム、医療、金融、自律システムといった高度な領域において、複雑な機械学習モデルによる決定の説明が不可欠になっている。
しかし、これらの説明の信頼性、すなわち、現実的な非敵対的な変化の下で安定し、一貫性を維持しているか否かは、ほとんど測定されていない。
SHAP(Integrated Gradients)やIG(Integrated Gradients)といった広く使われている手法は、帰属の公理的概念によって動機付けられているが、その説明は小さな入力摂動、相関表現、マイナーモデル更新など、システムレベルの条件下でも大きく異なる。
信頼性のある説明は、等価な入力表現と、小さな、パフォーマンスを保ったモデル変更の間で一貫していなければならないため、このような変動は、説明の信頼性を損なう。
本研究では,4つの信頼性公理の下で説明安定性を定量的に評価する指標である説明信頼性指数(Explanation Reliability Index, ERI)を紹介する。
各公理に対して、リプシッツ型境界および時間安定性結果を含む形式的な保証を導出する。
さらに、逐次モデルのための時間的信頼性の専用尺度であるERI-Tを提案し、合成データセットと実世界のデータセット間の信頼性を体系的にストレステストするベンチマークであるERI-Benchを紹介する。
実験結果から, 現実的な展開条件下では, 説明が不安定である可能性が示唆された。
これらの不安定性を公開して定量化することにより、ERIは説明信頼性の原則的な評価を可能にし、より信頼性の高い説明可能なAI(XAI)システムをサポートする。
関連論文リスト
- Explanation Multiplicity in SHAP: Characterization and Assessment [28.413883186555438]
ポストホックの説明は、貸付、雇用、医療といった高額な領域における自動決定を正当化し、議論し、レビューするために広く使われている。
しかし、実際にSHAPの説明は、個人、予測タスク、訓練されたモデルが固定された場合でも、繰り返し実行される間に大きく異なる可能性がある。
我々は、この現象の説明多重性の概念と命名、すなわち、同じ決定に対して複数の、内部的に有効な、実質的に異なる説明が存在すること。
論文 参考訳(メタデータ) (2026-01-19T02:01:18Z) - PaTAS: A Parallel System for Trust Propagation in Neural Networks Using Subjective Logic [1.8485970721272895]
本稿では,ニューラルネットワークの信頼をモデル化し,伝播するフレームワークであるPaTASを紹介する。
実世界および敵対的データセットの実験は、PaTASが解釈可能、対称性、収束信頼推定を生成することを示した。
論文 参考訳(メタデータ) (2025-11-25T18:15:36Z) - Fair and Explainable Credit-Scoring under Concept Drift: Adaptive Explanation Frameworks for Evolving Populations [0.0]
動的に進化する信用モデルにおいて,解釈可能性と公平性を再検討する適応的説明フレームワークを開発する。
その結果、適応的手法、特に再ベースラインと代理に基づく説明は、時間的安定性を著しく改善し、予測精度を低下させることなく、人口集団間で異なる影響を減少させることがわかった。
これらの知見は、データ駆動型信用システムにおいて、透明性、説明責任、倫理的信頼性を維持するための実践的なメカニズムとして適応的説明可能性を確立した。
論文 参考訳(メタデータ) (2025-11-05T19:14:43Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Diagnosing and Rectifying Fake OOD Invariance: A Restructured Causal
Approach [51.012396632595554]
不変表現学習(IRL)は、不変因果的特徴から環境から切り離されたラベルへの予測を促進する。
最近の理論的結果は、IRLによって回復されたいくつかの因果的特徴は、訓練環境ではドメイン不変のふりをするが、目に見えない領域では失敗する。
本研究では,RS-SCMに関する条件付き相互情報に基づく手法を開発し,その効果を巧みに補正する。
論文 参考訳(メタデータ) (2023-12-15T12:58:05Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。