論文の概要: Shapley Marginal Surplus for Strong Models
- arxiv url: http://arxiv.org/abs/2408.08845v1
- Date: Fri, 16 Aug 2024 17:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 14:43:58.099098
- Title: Shapley Marginal Surplus for Strong Models
- Title(参考訳): 強モデルにおけるShapley Marginal Surplus
- Authors: Daniel de Marchi, Michael Kosorok, Scott de Marchi,
- Abstract要約: 我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
- 参考スコア(独自算出の注目度): 0.9831489366502301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shapley values have seen widespread use in machine learning as a way to explain model predictions and estimate the importance of covariates. Accurately explaining models is critical in real-world models to both aid in decision making and to infer the properties of the true data-generating process (DGP). In this paper, we demonstrate that while model-based Shapley values might be accurate explainers of model predictions, machine learning models themselves are often poor explainers of the DGP even if the model is highly accurate. Particularly in the presence of interrelated or noisy variables, the output of a highly predictive model may fail to account for these relationships. This implies explanations of a trained model's behavior may fail to provide meaningful insight into the DGP. In this paper we introduce a novel variable importance algorithm, Shapley Marginal Surplus for Strong Models, that samples the space of possible models to come up with an inferential measure of feature importance. We compare this method to other popular feature importance methods, both Shapley-based and non-Shapley based, and demonstrate significant outperformance in inferential capabilities relative to other methods.
- Abstract(参考訳): 共有値は、モデル予測を説明し、共変量の重要性を推定する方法として機械学習で広く利用されている。
正確なモデルの説明は、意思決定を助け、真のデータ生成プロセス(DGP)の特性を推測するために、現実世界のモデルでは不可欠である。
本稿では,モデルに基づくShapley値がモデル予測の正確な説明者であるのに対して,機械学習モデル自体が精度の高いモデルであっても,DGPの悪い説明者であることが多いことを実証する。
特に、関係変数やノイズ変数が存在する場合、高い予測的モデルの出力はこれらの関係を考慮できないかもしれない。
これは、訓練されたモデルの振舞いがDGPに意味のある洞察を与えるのに失敗する可能性を示唆している。
本稿では,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを紹介する。
本手法を,シェープリーベースと非シェープリーベースの両方において他の特徴重要度評価法と比較し,他の手法と比較して,推論能力に優れた性能を示す。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Explainability of Machine Learning Models under Missing Data [2.880748930766428]
データ不足は、モデルの性能と解釈可能性を著しく損なうおそれのある問題である。
本稿では, 欠落データ分野の展開を要約し, 種々の計算法がシェープリー値の計算に与える影響について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Shapley variable importance cloud for machine learning models [4.1359299555083595]
最近開発されたShapley変数重要クラウド(ShapleyVIC)は、包括的で堅牢な変数重要度評価を提供する。
ShapleyVIC推論の利点は実生活予測タスクで実証されている。
より広範なアプリケーションを可能にする機械学習モデルのShapleyVIC実装。
論文 参考訳(メタデータ) (2022-12-16T09:45:22Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - Shapley variable importance clouds for interpretable machine learning [2.830197032154301]
本報告では,最終モデルのSHAP解析におけるバイアス評価を回避するため,優れたモデルにまたがる情報をプールするShapley変数重要クラウドを提案する。
刑事司法データと電子カルテデータを用いたドン・アンド・ルーディン法とを比較検討した。
論文 参考訳(メタデータ) (2021-10-06T03:41:04Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Shapley explainability on the data manifold [10.439136407307048]
Shapleyの説明可能性の一般的な実装は、モデルの特徴が非相関である、という断定不能な仮定を下している。
生成的モデリングに基づく1つのソリューションは、データ計算への柔軟なアクセスを提供する。
もうひとつはShapleyの価値関数を直接学習し、柔軟性を犠牲にしてパフォーマンスと安定性を提供します。
論文 参考訳(メタデータ) (2020-06-01T21:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。