論文の概要: Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective
- arxiv url: http://arxiv.org/abs/2404.13522v2
- Date: Thu, 30 May 2024 01:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 20:25:21.121492
- Title: Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective
- Title(参考訳): シェープ値に基づくモデル記述の誤り解析--インフォーマティブ・パースペクティブ
- Authors: Ningsheng Zhao, Jia Yuan Yu, Krzysztof Dzieciolowski, Trang Bui,
- Abstract要約: 共有値属性(Shapley Value Attribution, SVA)は、モデルの出力に対する各機能の貢献を定量化する、説明可能なAI(XAI)メソッドとして、ますます人気が高まっている。
最近の研究によると、SVAを実装する既存の方法にはいくつかの欠点があり、バイアスや信頼性の低い説明がなされている。
本稿では,SVAの説明誤差を観察バイアスと構造バイアスの2つの構成要素に分解する,新しい誤差理論解析フレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.5186937600119894
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Shapley value attribution (SVA) is an increasingly popular explainable AI (XAI) method, which quantifies the contribution of each feature to the model's output. However, recent work has shown that most existing methods to implement SVAs have some drawbacks, resulting in biased or unreliable explanations that fail to correctly capture the true intrinsic relationships between features and model outputs. Moreover, the mechanism and consequences of these drawbacks have not been discussed systematically. In this paper, we propose a novel error theoretical analysis framework, in which the explanation errors of SVAs are decomposed into two components: observation bias and structural bias. We further clarify the underlying causes of these two biases and demonstrate that there is a trade-off between them. Based on this error analysis framework, we develop two novel concepts: over-informative and underinformative explanations. We demonstrate how these concepts can be effectively used to understand potential errors of existing SVA methods. In particular, for the widely deployed assumption-based SVAs, we find that they can easily be under-informative due to the distribution drift caused by distributional assumptions. We propose a measurement tool to quantify such a distribution drift. Finally, our experiments illustrate how different existing SVA methods can be over- or under-informative. Our work sheds light on how errors incur in the estimation of SVAs and encourages new less error-prone methods.
- Abstract(参考訳): 共有値属性(Shapley Value Attribution, SVA)は、モデルの出力に対する各機能の貢献を定量化する、説明可能なAI(XAI)メソッドとして、ますます人気が高まっている。
しかし、最近の研究は、SVAを実装する既存のほとんどのメソッドにはいくつかの欠点があることを示しており、結果としてバイアスや信頼性の低い説明が、機能とモデルアウトプットの間の真の本質的な関係を正しく捉えられなかった。
さらに、これらの欠点のメカニズムと結果が体系的に議論されていない。
本稿では,SVAの説明誤差を観察バイアスと構造バイアスの2つの構成要素に分解する,新しい誤差理論解析フレームワークを提案する。
これら2つのバイアスの根本原因をさらに明確にし、それらの間にトレードオフがあることを実証する。
この誤り分析の枠組みに基づいて,過度な表現的,過度な表現的説明という2つの新しい概念を考案する。
既存のSVA手法の潜在的な誤りを理解するために,これらの概念を効果的に活用する方法を実証する。
特に, 広く展開されている仮定に基づくSVAでは, 分布仮定による分布のドリフトにより, 容易に不定形化できることがわかった。
このような分布のドリフトを定量化するための測定ツールを提案する。
最後に、我々の実験は、既存のSVAメソッドが過度または過度に表現可能であることを示す。
我々の研究は、SVAの推定においてエラーがどのように発生するかに光を当て、新しいエラーの発生頻度の低い手法を奨励します。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Theoretical Evaluation of Asymmetric Shapley Values for Root-Cause
Analysis [0.0]
非対称シェープ値 (ASV) は、一般的なSHAP付加的局所的説明法の変種である。
局所的な貢献が分散還元のグローバルな貢献とどのように対応するかを示す。
一般化加法モデル (GAM) を, ASV が望ましい特性を示す制限クラスとして同定する。
論文 参考訳(メタデータ) (2023-10-15T21:40:16Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Loss function based second-order Jensen inequality and its application
to particle variational inference [112.58907653042317]
粒子変分推論(PVI)は、後部分布の実験的近似としてモデルのアンサンブルを用いる。
PVIは、最適化されたモデルの多様性を保証するために、各モデルを反発力で反復的に更新する。
我々は,新たな一般化誤差を導出し,モデルの多様性を高めて低減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T12:13:51Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。