論文の概要: Explanation Multiplicity in SHAP: Characterization and Assessment
- arxiv url: http://arxiv.org/abs/2601.12654v1
- Date: Mon, 19 Jan 2026 02:01:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.724945
- Title: Explanation Multiplicity in SHAP: Characterization and Assessment
- Title(参考訳): SHAPにおける説明多重性:評価と評価
- Authors: Hyunseung Hwang, Seungeun Lee, Lucas Rosenblatt, Julia Stoyanovich, Steven Euijong Whang,
- Abstract要約: ポストホックの説明は、ハイテイクドメインにおける自動決定を正当化し、競合し、監査するために広く使われている。
しかし、SHAPの説明は、入力、タスク、訓練されたモデルが固定されている場合でも、繰り返し実行される間に大きく異なる可能性がある。
この現象を多重性(multiplicity):複数の内部的有効であるが、同じ決定に対して実質的に異なる説明をする。
- 参考スコア(独自算出の注目度): 28.413883186555434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-hoc explanations are widely used to justify, contest, and audit automated decisions in high-stakes domains. SHAP, in particular, is often treated as a reliable account of which features drove an individual prediction. Yet SHAP explanations can vary substantially across repeated runs even when the input, task, and trained model are held fixed. We term this phenomenon explanation multiplicity: multiple internally valid but substantively different explanations for the same decision. We present a methodology to characterize multiplicity in feature-attribution explanations and to disentangle sources due to model training/selection from stochasticity intrinsic to the explanation pipeline. We further show that apparent stability depends on the metric: magnitude-based distances can remain near zero while rank-based measures reveal substantial churn in the identity and ordering of top features. To contextualize observed disagreement, we derive randomized baseline values under plausible null models. Across datasets, model classes, and confidence regimes, we find explanation multiplicity is pervasive and persists even for high-confidence predictions, highlighting the need for metrics and baselines that match the intended use of explanations.
- Abstract(参考訳): ポストホックの説明は、ハイテイクドメインにおける自動決定を正当化し、競合し、監査するために広く使われている。
特にSHAPは、個々の予測を駆動する特徴の信頼できる説明として扱われることが多い。
しかし、SHAPの説明は、入力、タスク、訓練されたモデルが固定されている場合でも、繰り返し実行される間に大きく異なる可能性がある。
この現象を多重性(multiplicity):複数の内部的有効であるが、同じ決定に対して実質的に異なる説明をする。
本稿では,特徴帰属的説明における多重度を特徴付ける手法と,その説明パイプラインに固有の確率性からのモデルトレーニング/選択によるソースの切り離しについて述べる。
等級に基づく距離はゼロに近づき、ランクに基づく測度はトップ特徴の恒等性と順序にかなりの変化を示す。
観測された不一致を文脈的に理解するために、我々はプラウシブルヌルモデルの下でランダム化されたベースライン値を導出する。
データセット、モデルクラス、信頼体制全体にわたって、マルチプライシティは広く普及し、高信頼の予測にも持続し、意図された説明の使用にマッチするメトリクスやベースラインの必要性を強調します。
関連論文リスト
- Towards Large Language Models with Self-Consistent Natural Language Explanations [11.085839471231552]
大きな言語モデル(LLM)は、解釈容易なパスを提供するようだ。
しかし、研究によると、これらのポストホックな説明は真の決定過程を誤って表現していることが多い。
論文 参考訳(メタデータ) (2025-06-09T08:06:33Z) - A Causal Lens for Evaluating Faithfulness Metrics [11.80379109128303]
因果診断(Causal Diagnosticity)は、自然言語の説明のための忠実度指標を評価するための共通のテストベッドとして機能するフレームワークである。
我々のフレームワークは診断の概念を採用し、モデル編集手法を用いて忠実で不誠実な説明ペアを生成する。
我々は,ポストホックな説明やチェーン・オブ・ソート・ベースの手法を含む,顕著な忠実度指標を評価した。
論文 参考訳(メタデータ) (2025-02-26T05:35:53Z) - Rethinking LLM Uncertainty: A Multi-Agent Approach to Estimating Black-Box Model Uncertainty [47.95943057892318]
ブラックボックスLSMの不確実性の定量化は、信頼性の高い応答とスケーラブルな監視に不可欠である。
本研究では,不確実性推定にマルチエージェント相互作用を用いた新しい理論的基礎手法であるDiverseAgentEntropyを紹介する。
論文 参考訳(メタデータ) (2024-12-12T18:52:40Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Bayesian Hierarchical Models for Counterfactual Estimation [12.159830463756341]
本稿では,多種多様なカウンターファクトの集合を推定する確率的パラダイムを提案する。
摂動を事前分布関数によるランダム変数として扱う。
収束特性の優れた勾配ベースサンプリング器は、後方サンプルを効率的に計算する。
論文 参考訳(メタデータ) (2023-01-21T00:21:11Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Do not explain without context: addressing the blind spot of model
explanations [2.280298858971133]
本稿では,機械学習モデルの監視と監査においてしばしば見落とされがちな盲点について述べる。
モデル説明の多くは参照データ分布の選択に直接的または間接的に依存する。
分布の小さな変化が、傾向の変化や、注意深い結論などの説明に劇的な変化をもたらす例を示す。
論文 参考訳(メタデータ) (2021-05-28T12:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。