論文の概要: Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective
- arxiv url: http://arxiv.org/abs/2404.13522v1
- Date: Sun, 21 Apr 2024 04:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 18:40:56.605624
- Title: Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective
- Title(参考訳): シェープ値に基づくモデル記述の誤り解析--インフォーマティブ・パースペクティブ
- Authors: Ningsheng Zhao, Jia Yuan Yu, Krzysztof Dzieciolowski, Trang Bui,
- Abstract要約: Shapley Value Attributionは、説明可能なAI(XAI)メソッドとして人気が高まっている。
本稿では,Shapley値属性の説明誤差を理論的に解析する。
オーバー・インフォーマティブとアンダー・インフォーマティブという2つの新しい概念を開発した。
- 参考スコア(独自算出の注目度): 1.5186937600119894
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Shapley value attribution is an increasingly popular explainable AI (XAI) method, which quantifies the contribution of each feature to the model's output. However, recent work has shown that most existing methods to implement Shapley value attributions have some drawbacks. Due to these drawbacks, the resulting Shapley value attributions may provide biased or unreliable explanations, which fail to correctly capture the true intrinsic relationships between features and model outputs. Moreover, it is difficult to evaluate these explanation errors because the true underlying dependencies between features and model outputs are typically unknown. In this paper, we theoretically analyze the explanation errors of Shapley value attributions by decomposing the explanation error into two components: observation bias and structural bias. We also clarify the underlying causes of these two biases and demonstrate that there is a trade-off between them. Based on this error analysis framework, we develop two novel concepts: over-informative and under-informative explanations. We theoretically analyze the potential over-informativeness and under-informativeness of existing Shapley value attribution methods. Particularly for the widely deployed assumption-based Shapley value attributions, we affirm that they can easily be under-informative due to the distribution drift caused by distributional assumptions. We also propose a measurement tool to quantify the distribution drift that causes such errors.
- Abstract(参考訳): シェープ値属性は、モデルの出力に対する各機能の貢献を定量化する、説明可能なAI(XAI)メソッドとして、ますます人気が高まっている。
しかし、近年の研究では、Shapley値属性を実装する既存の方法にいくつか欠点があることが示されている。
これらの欠点により、結果のShapley値の属性はバイアスあるいは信頼できない説明を与え、特徴とモデル出力の間の真の本質的な関係を正しく捉えることができない。
さらに、機能とモデル出力の真の基盤となる依存関係が通常不明であるため、これらの説明エラーを評価することは困難である。
本稿では,説明誤差を観察バイアスと構造バイアスの2つの成分に分解することで,シェープ値属性の説明誤差を理論的に解析する。
また、これらの2つのバイアスの根本原因を明らかにし、それらの間にトレードオフがあることを示します。
この誤り解析の枠組みに基づいて,過度な表現的・過度な表現的説明という2つの新しい概念を考案する。
既存のShapley値の帰属法における過剰なインフォーマル性と過大なインフォーマル性について理論的に分析する。
特に、広く展開されている仮定に基づくShapley値の属性について、分布仮定による分布のドリフトにより、容易に不定形であることが確認できる。
また,そのような誤差の原因となる分布のドリフトを定量化するための測定ツールを提案する。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value [3.0655581300025996]
共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T12:20:23Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Shapley explainability on the data manifold [10.439136407307048]
Shapleyの説明可能性の一般的な実装は、モデルの特徴が非相関である、という断定不能な仮定を下している。
生成的モデリングに基づく1つのソリューションは、データ計算への柔軟なアクセスを提供する。
もうひとつはShapleyの価値関数を直接学習し、柔軟性を犠牲にしてパフォーマンスと安定性を提供します。
論文 参考訳(メタデータ) (2020-06-01T21:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。