論文の概要: Counterfactual Shapley Additive Explanations
- arxiv url: http://arxiv.org/abs/2110.14270v1
- Date: Wed, 27 Oct 2021 08:44:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:12:22.480488
- Title: Counterfactual Shapley Additive Explanations
- Title(参考訳): 反事実的シェープリー加法説明
- Authors: Emanuele Albini, Jason Long, Danial Dervovic, Daniele Magazzeni
- Abstract要約: 本稿では,逆ファクト生成技術を用いて背景データセットを生成するSHAPの変種であるCoSHAPを提案する。
我々は、特徴属性にShapley値を使用する場合、背景データセットを慎重に考慮するためのアクション可能なリコース設定の必要性を動機付けている。
- 参考スコア(独自算出の注目度): 6.916452769334367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attributions are a common paradigm for model explanations due to
their simplicity in assigning a single numeric score for each input feature to
a model. In the actionable recourse setting, wherein the goal of the
explanations is to improve outcomes for model consumers, it is often unclear
how feature attributions should be correctly used. With this work, we aim to
strengthen and clarify the link between actionable recourse and feature
attributions. Concretely, we propose a variant of SHAP, CoSHAP, that uses
counterfactual generation techniques to produce a background dataset for use
within the marginal (a.k.a. interventional) Shapley value framework. We
motivate the need within the actionable recourse setting for careful
consideration of background datasets when using Shapley values for feature
attributions, alongside the requirement for monotonicity, with numerous
synthetic examples. Moreover, we demonstrate the efficacy of CoSHAP by
proposing and justifying a quantitative score for feature attributions,
counterfactual-ability, showing that as measured by this metric, CoSHAP is
superior to existing methods when evaluated on public datasets using monotone
tree ensembles.
- Abstract(参考訳): 特徴帰属(feature attribution)は、モデルに各入力特徴に対して単一の数値スコアを割り当てることの単純さから、モデル説明のための一般的なパラダイムである。
動作可能なリコース設定では、モデル消費者の成果を改善することが目的であるが、機能属性が正しく使用されるかはよく分かっていない。
本研究は,行動可能な会話と特徴属性との関連性を強化することを目的としている。
具体的には,SHAPの変種であるCoSHAPを提案する。これは反ファクト生成技術を用いて,シャープリー値フレームワーク内で使用するための背景データセットを生成する。
我々は,特徴属性にShapley値を使用する場合の背景データセットを慎重に考慮するために,動作可能なリコース設定の必要性と,モノトニック性の必要性を,多くの合成例とともに動機付けている。
さらに,CoSHAPの有効性を,特徴属性,反事実可能性の定量的スコアの提案と正当性によって示し,この測定結果から,モノトンツリーアンサンブルを用いた公開データセットを用いた評価において,既存の手法よりも優れていることを示す。
関連論文リスト
- Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions [3.0655581300025996]
我々は,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供し,その複雑なモデルにおいて,完全に異なる属性を強制する。
提案手法は,修正された説明に基づいてトレーニングデータセットを増強することで,モデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-28T15:23:28Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Joint Shapley values: a measure of joint feature importance [6.169364905804678]
結合Shapley値を導入し、Shapley公理を直接拡張する。
ジョイントシェープの値は、モデルの予測に対する特徴の平均的な影響を測る。
ゲームの結果、ジョイントシェープの値は既存の相互作用指標とは異なる洞察を示します。
論文 参考訳(メタデータ) (2021-07-23T17:22:37Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。