論文の概要: Accurate Shapley Values for explaining tree-based models
- arxiv url: http://arxiv.org/abs/2106.03820v3
- Date: Wed, 31 May 2023 17:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 23:34:49.399266
- Title: Accurate Shapley Values for explaining tree-based models
- Title(参考訳): 木モデル記述のための正確なシェープ値
- Authors: Salim I. Amoukou, Nicolas J-B. Brunel, Tangi Sala\"un
- Abstract要約: 木構造を効率的に利用し,最先端の手法よりも精度の高い2つのシェープ値推定器を導入する。
これらのメソッドはPythonパッケージとして利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shapley Values (SV) are widely used in explainable AI, but their estimation
and interpretation can be challenging, leading to inaccurate inferences and
explanations. As a starting point, we remind an invariance principle for SV and
derive the correct approach for computing the SV of categorical variables that
are particularly sensitive to the encoding used. In the case of tree-based
models, we introduce two estimators of Shapley Values that exploit the tree
structure efficiently and are more accurate than state-of-the-art methods.
Simulations and comparisons are performed with state-of-the-art algorithms and
show the practical gain of our approach. Finally, we discuss the limitations of
Shapley Values as a local explanation. These methods are available as a Python
package.
- Abstract(参考訳): shapley value(sv)は説明可能なaiで広く使われているが、その推定と解釈は困難であり、不正確な推論と説明につながる。
始点として、SVの不変原理を思い起こさせ、使用する符号化に特に敏感な分類変数のSVを計算するための正しいアプローチを導出する。
木構造モデルの場合、木構造を効率的に利用し、最先端の手法よりも精度の高い2つのシェープ値推定器を導入する。
シミュレーションと比較は最先端アルゴリズムを用いて行われ,本手法の実用的利益を示す。
最後に、局所的な説明としてShapley Valuesの限界について論じる。
これらのメソッドはPythonパッケージとして利用できる。
関連論文リスト
- Precision of Individual Shapley Value Explanations [0.0]
共有値は、複雑な機械学習(ML)モデルによる予測を説明するためのフレームワークとして、説明可能な人工知能(XAI)で広く使用されている。
本研究では, トレーニングデータ分布の外部領域の観測において, 系統的に精度が低いことを示す。
これは統計的観点から予測されるが、我々の知る限りでは、シェープリー価値文学において体系的に扱われていない。
論文 参考訳(メタデータ) (2023-12-06T13:29:23Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Algorithms to estimate Shapley value feature attributions [11.527421282223948]
Shapley値に基づく特徴属性は、機械学習モデルを説明するために人気がある。
我々は,この複雑さを,(1)特徴情報の除去アプローチ,(2)抽出可能な推定戦略の2つの要因に分解する。
論文 参考訳(メタデータ) (2022-07-15T17:04:41Z) - Shapley Computations Using Surrogate Model-Based Trees [4.2575268077562685]
本稿では,Surrogateモデルを用いたShapleyとSHAPの値を条件付き期待値に基づいて計算する手法を提案する。
シミュレーション研究により,提案アルゴリズムは精度を向上し,グローバルシェープとSHAPの解釈を統一し,しきい値法は実行時間と精度をトレードオフする方法を提供することが示された。
論文 参考訳(メタデータ) (2022-07-11T22:20:51Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - The Shapley Value of coalition of variables provides better explanations [0.0]
SV(Shapley Values)がいまだに理解されていないことを示す。
ダミー変数のSVを和らげるという一般的な実践は誤りであることを示す。
重要な変数の正しい計算と推論を提供します。
論文 参考訳(メタデータ) (2021-03-24T17:02:57Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。