論文の概要: On the Tractability of SHAP Explanations
- arxiv url: http://arxiv.org/abs/2009.08634v2
- Date: Sun, 31 Jan 2021 00:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:30:50.578867
- Title: On the Tractability of SHAP Explanations
- Title(参考訳): SHAP説明のトラクタビリティについて
- Authors: Guy Van den Broeck, Anton Lykov, Maximilian Schleich, Dan Suciu
- Abstract要約: SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
SHAP説明の計算の複雑さは、モデルが期待する値の計算の複雑さと同じであることを示す。
完全に分解された分布を超えて、SHAP説明の計算は、非常に単純な設定で既に難解であることが示される。
- 参考スコア(独自算出の注目度): 40.829629145230356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: SHAP explanations are a popular feature-attribution mechanism for explainable
AI. They use game-theoretic notions to measure the influence of individual
features on the prediction of a machine learning model. Despite a lot of recent
interest from both academia and industry, it is not known whether SHAP
explanations of common machine learning models can be computed efficiently. In
this paper, we establish the complexity of computing the SHAP explanation in
three important settings. First, we consider fully-factorized data
distributions, and show that the complexity of computing the SHAP explanation
is the same as the complexity of computing the expected value of the model.
This fully-factorized setting is often used to simplify the SHAP computation,
yet our results show that the computation can be intractable for commonly used
models such as logistic regression. Going beyond fully-factorized
distributions, we show that computing SHAP explanations is already intractable
for a very simple setting: computing SHAP explanations of trivial classifiers
over naive Bayes distributions. Finally, we show that even computing SHAP over
the empirical distribution is #P-hard.
- Abstract(参考訳): SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。
彼らはゲーム理論の概念を用いて、個々の特徴が機械学習モデルの予測に与える影響を測定する。
近年、学術と産業の両方から多くの関心が寄せられているが、一般的な機械学習モデルのSHAP説明が効率的に計算できるかどうかは不明である。
本稿では,SHAP説明の計算の複雑さを3つの重要な設定で確立する。
まず,完全分解データ分布を考察し,shapの説明の計算の複雑さが,モデルの期待値の計算の複雑さと同じであることを示す。
この完全分解設定はshap計算を単純化するためにしばしば用いられるが、ロジスティック回帰のような一般的なモデルでは計算が難解であることを示している。
完全分解分布を超えて、shapの計算は、非常に単純な設定で既に難解であることを示す: 単純ベイズ分布上の自明な分類器のシェープ説明を計算する。
最後に、実験的な分布に対するSHAPの計算でさえ、#P-hardであることを示す。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - On the Tractability of SHAP Explanations under Markovian Distributions [0.1578515540930834]
SHAPフレームワークはMLモデルの局所的な説明可能性のための最も広く利用されているフレームワークの1つである。
その人気にもかかわらず、その正確な計算は非常に困難であることが知られ、様々な構成においてNP-Hardであることが証明されている。
近年の研究では、特定のモデルファミリーに対するSHAPスコアの計算に関して、肯定的な複雑性の結果が明らかにされている。
論文 参考訳(メタデータ) (2024-05-05T13:56:12Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - A $k$-additive Choquet integral-based approach to approximate the SHAP
values for local interpretability in machine learning [8.637110868126546]
本稿では,Shapley値に基づく機械学習モデルに対する解釈可能性の提供を目的とする。
Kernel SHAPと呼ばれるSHAPベースの手法は、計算労力を少なくしてそのような値を近似する効率的な戦略を採用する。
得られた結果から,提案手法ではSHAP値に近似するために属性の連立性に関する計算がより少ないことが確認された。
論文 参考訳(メタデータ) (2022-11-03T22:34:50Z) - On Computing Relevant Features for Explaining NBCs [5.71097144710995]
XAI(Modelagnostic explainable AI)は誤った説明をすることができる。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,ネイブベイズ分類器(NBC)の関連機能集合の計算の複雑さについて検討し,実際は計算が容易であることを示す。
論文 参考訳(メタデータ) (2022-07-11T10:12:46Z) - An Imprecise SHAP as a Tool for Explaining the Class Probability
Distributions under Limited Training Data [5.8010446129208155]
クラス確率分布が不正確で分布の集合で表される場合に、不正確なSHAPを提案する。
不正確なSHAPの背後にある最初のアイデアは、機能の限界貢献を計算するための新しいアプローチである。
第二のアイデアは、間隔値シャプリー値の計算と縮小に対する一般的なアプローチを考える試みである。
論文 参考訳(メタデータ) (2021-06-16T20:30:26Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。