論文の概要: Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models
- arxiv url: http://arxiv.org/abs/2011.01625v1
- Date: Tue, 3 Nov 2020 11:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:58:39.530322
- Title: Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models
- Title(参考訳): Causal Shapley Values:複雑なモデルの個々の予測を説明するためにCausal Knowledgeを爆発させる
- Authors: Tom Heskes, Evi Sijben, Ioan Gabriel Bucur, Tom Claassen
- Abstract要約: シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
- 参考スコア(独自算出の注目度): 6.423239719448169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values underlie one of the most popular model-agnostic methods within
explainable artificial intelligence. These values are designed to attribute the
difference between a model's prediction and an average baseline to the
different features used as input to the model. Being based on solid
game-theoretic principles, Shapley values uniquely satisfy several desirable
properties, which is why they are increasingly used to explain the predictions
of possibly complex and highly non-linear machine learning models. Shapley
values are well calibrated to a user's intuition when features are independent,
but may lead to undesirable, counterintuitive explanations when the
independence assumption is violated.
In this paper, we propose a novel framework for computing Shapley values that
generalizes recent work that aims to circumvent the independence assumption. By
employing Pearl's do-calculus, we show how these 'causal' Shapley values can be
derived for general causal graphs without sacrificing any of their desirable
properties. Moreover, causal Shapley values enable us to separate the
contribution of direct and indirect effects. We provide a practical
implementation for computing causal Shapley values based on causal chain graphs
when only partial information is available and illustrate their utility on a
real-world example.
- Abstract(参考訳): shapleyの価値観は、説明可能な人工知能の中で最も一般的なモデルに依存しない手法の1つだ。
これらの値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
ソリッドゲーム理論の原則に基づいて、Shapleyの値はいくつかの望ましい性質を独特に満たしている。
シャプリーの値は、特徴が独立であるときにユーザの直感によく調整されるが、独立性仮定に違反した場合、望ましくない、直観に反する説明につながる可能性がある。
本稿では,独立仮説を回避しようとする最近の研究を一般化したshapley値計算のための新しい枠組みを提案する。
パールの do-calculus を用いて、これらの 'causal' Shapley 値は、それらの望ましい性質を犠牲にすることなく、一般的な因果グラフに対してどのように導出できるかを示す。
さらに、因果シェープの値は直接効果と間接効果の寄与を分離することができる。
部分的な情報しか得られない場合の因果連鎖グラフに基づいて因果シャプリー値を計算するための実用的な実装を提供し、実例でその有用性を示す。
関連論文リスト
- Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Explaining the data or explaining a model? Shapley values that uncover
non-linear dependencies [0.0]
本稿では,エネルギー距離相関,アフィン不変距離相関,およびヒルベルト・シュミット独立基準をシェープリー値特性関数として導入し,その利用を実証する。
論文 参考訳(メタデータ) (2020-07-12T15:04:59Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。