論文の概要: Accurate and robust Shapley Values for explaining predictions and
focusing on local important variables
- arxiv url: http://arxiv.org/abs/2106.03820v1
- Date: Mon, 7 Jun 2021 17:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 21:00:41.671930
- Title: Accurate and robust Shapley Values for explaining predictions and
focusing on local important variables
- Title(参考訳): 予測記述のための高精度でロバストなシェープリー値と局所的重要な変数に着目して
- Authors: Salim I. Amoukou, Nicolas J-B. Brunel, Tangi Sala\"un
- Abstract要約: 共有価値(SV)は、説明可能なAIで広く使われているが、理解が不十分で、見積もることができる。
我々は、特に符号化に敏感な分類変数のSVを計算するための正しいアプローチを導出する。
加法的説明を解釈するためには、非インフルエンシャル変数をフィルタリングし、影響力のある変数のグループに対してのみシェープ値を計算することを推奨する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Shapley Values (SV) are widely used in explainable AI, they can be
poorly understood and estimated, which implies that their analysis may lead to
spurious inferences and explanations. As a starting point, we remind an
invariance principle for SV and derive the correct approach for computing the
SV of categorical variables that are particularly sensitive to the encoding
used. In the case of tree-based models, we introduce two estimators of Shapley
Values that exploit efficiently the tree structure and are more accurate than
state-of-the-art methods. For interpreting additive explanations, we recommend
to filter the non-influential variables and to compute the Shapley Values only
for groups of influential variables. For this purpose, we use the concept of
"Same Decision Probability" (SDP) that evaluates the robustness of a prediction
when some variables are missing. This prior selection procedure produces sparse
additive explanations easier to visualize and analyse. Simulations and
comparisons are performed with state-of-the-art algorithm, and show the
practical gain of our approach.
- Abstract(参考訳): shapley values (sv) は説明可能なaiで広く使われているが、理解や推定が不十分であり、その分析が散発的な推論や説明につながる可能性がある。
始点として、SVの不変原理を思い起こさせ、使用する符号化に特に敏感な分類変数のSVを計算するための正しいアプローチを導出する。
木構造モデルの場合,木構造を効率的に利用し,最先端の手法よりも精度の高い2つのシェープ値推定器を導入する。
加法的説明を解釈するためには、非インフルエンシャル変数をフィルタリングし、影響力のある変数のグループに対してのみシェープ値を計算することを推奨する。
この目的のために,変数の欠落時の予測のロバスト性を評価する"same decision probability" (sdp) という概念を用いる。
この事前選択手順は、可視化および分析が容易なスパース付加説明を生成する。
シミュレーションと比較は最先端アルゴリズムを用いて行われ,本手法の実用的利益を示す。
関連論文リスト
- Precision of Individual Shapley Value Explanations [0.0]
共有値は、複雑な機械学習(ML)モデルによる予測を説明するためのフレームワークとして、説明可能な人工知能(XAI)で広く使用されている。
本研究では, トレーニングデータ分布の外部領域の観測において, 系統的に精度が低いことを示す。
これは統計的観点から予測されるが、我々の知る限りでは、シェープリー価値文学において体系的に扱われていない。
論文 参考訳(メタデータ) (2023-12-06T13:29:23Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Algorithms to estimate Shapley value feature attributions [11.527421282223948]
Shapley値に基づく特徴属性は、機械学習モデルを説明するために人気がある。
我々は,この複雑さを,(1)特徴情報の除去アプローチ,(2)抽出可能な推定戦略の2つの要因に分解する。
論文 参考訳(メタデータ) (2022-07-15T17:04:41Z) - Shapley Computations Using Surrogate Model-Based Trees [4.2575268077562685]
本稿では,Surrogateモデルを用いたShapleyとSHAPの値を条件付き期待値に基づいて計算する手法を提案する。
シミュレーション研究により,提案アルゴリズムは精度を向上し,グローバルシェープとSHAPの解釈を統一し,しきい値法は実行時間と精度をトレードオフする方法を提供することが示された。
論文 参考訳(メタデータ) (2022-07-11T22:20:51Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - The Shapley Value of coalition of variables provides better explanations [0.0]
SV(Shapley Values)がいまだに理解されていないことを示す。
ダミー変数のSVを和らげるという一般的な実践は誤りであることを示す。
重要な変数の正しい計算と推論を提供します。
論文 参考訳(メタデータ) (2021-03-24T17:02:57Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。