論文の概要: Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value
- arxiv url: http://arxiv.org/abs/2306.10880v1
- Date: Mon, 19 Jun 2023 12:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:58:24.279175
- Title: Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value
- Title(参考訳): shapley値の分解によるモデルと特徴依存性の説明
- Authors: Joran Michiels, Maarten De Vos, Johan Suykens
- Abstract要約: 共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.0655581300025996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values have become one of the go-to methods to explain complex models
to end-users. They provide a model agnostic post-hoc explanation with
foundations in game theory: what is the worth of a player (in machine learning,
a feature value) in the objective function (the output of the complex machine
learning model). One downside is that they always require outputs of the model
when some features are missing. These are usually computed by taking the
expectation over the missing features. This however introduces a non-trivial
choice: do we condition on the unknown features or not? In this paper we
examine this question and claim that they represent two different explanations
which are valid for different end-users: one that explains the model and one
that explains the model combined with the feature dependencies in the data. We
propose a new algorithmic approach to combine both explanations, removing the
burden of choice and enhancing the explanatory power of Shapley values, and
show that it achieves intuitive results on simple problems. We apply our method
to two real-world datasets and discuss the explanations. Finally, we
demonstrate how our method is either equivalent or superior to state-to-of-art
Shapley value implementations while simultaneously allowing for increased
insight into the model-data structure.
- Abstract(参考訳): shapleyの値は、エンドユーザーに複雑なモデルを説明するためのgo-toメソッドの1つになっている。
ゲーム理論の基礎として、目的関数(複雑な機械学習モデルの出力)におけるプレイヤーの価値(機械学習、特徴値)について、モデルに依存しない事後説明を提供する。
欠点のひとつは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることだ。
これらは通常、欠落した機能に対する期待を捉えて計算される。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では、この疑問を考察し、それらが異なるエンドユーザーに対して有効な2つの異なる説明を表現していると主張する。
本稿では,2つの説明を組み合わせ,選択の負担を取り除き,Shapley値の説明力を高めるアルゴリズムを提案し,簡単な問題に対して直感的な結果が得られることを示す。
本手法を実世界の2つのデータセットに適用し,その説明について議論する。
最後に、本手法が最先端のshapley値の実装と同等か優れているかを示し、同時にモデル-データ構造に関する洞察を高めることを可能にする。
関連論文リスト
- Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - From Shapley Values to Generalized Additive Models and back [16.665883787432858]
我々は$n$-Shapley Valuesを紹介します。これはShapley Valuesの自然な拡張で、$n$までの相互作用項による個々の予測を説明します。
Shapley-GAMから任意の順序でShapley Valuesを計算し、これらの説明の限界について正確な洞察を与える。
技術的には、値関数を選択する異なる方法と元の関数の異なる機能分解との間には、1対1の対応があることが示される。
論文 参考訳(メタデータ) (2022-09-08T19:37:06Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Is Shapley Explanation for a model unique? [0.0]
特徴の分布とShapley値の関係について検討する。
我々の評価では、特定の特徴に対するShapleyの値は、期待値だけでなく、分散のような他の瞬間にも依存する。
これはモデルの結果(Probability/Log-odds/binary decision、recept/rejectなど)によって異なり、従ってモデルアプリケーションによって異なります。
論文 参考訳(メタデータ) (2021-11-23T15:31:46Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。