論文の概要: Shapley variable importance clouds for interpretable machine learning
- arxiv url: http://arxiv.org/abs/2110.02484v1
- Date: Wed, 6 Oct 2021 03:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 04:32:12.976093
- Title: Shapley variable importance clouds for interpretable machine learning
- Title(参考訳): 解釈可能な機械学習のためのshapley変数重要クラウド
- Authors: Yilin Ning, Marcus Eng Hock Ong, Bibhas Chakraborty, Benjamin Alan
Goldstein, Daniel Shu Wei Ting, Roger Vaughan, Nan Liu
- Abstract要約: 本報告では,最終モデルのSHAP解析におけるバイアス評価を回避するため,優れたモデルにまたがる情報をプールするShapley変数重要クラウドを提案する。
刑事司法データと電子カルテデータを用いたドン・アンド・ルーディン法とを比較検討した。
- 参考スコア(独自算出の注目度): 2.830197032154301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable machine learning has been focusing on explaining final models
that optimize performance. The current state-of-the-art is the Shapley additive
explanations (SHAP) that locally explains variable impact on individual
predictions, and it is recently extended for a global assessment across the
dataset. Recently, Dong and Rudin proposed to extend the investigation to
models from the same class as the final model that are "good enough", and
identified a previous overclaim of variable importance based on a single model.
However, this method does not directly integrate with existing Shapley-based
interpretations. We close this gap by proposing a Shapley variable importance
cloud that pools information across good models to avoid biased assessments in
SHAP analyses of final models, and communicate the findings via novel
visualizations. We demonstrate the additional insights gain compared to
conventional explanations and Dong and Rudin's method using criminal justice
and electronic medical records data.
- Abstract(参考訳): 解釈可能な機械学習は、パフォーマンスを最適化する最終モデルの説明に注力している。
現在の最先端は、個々の予測に対する変数の影響を局所的に説明するShapley additive explanations(SHAP)であり、データセット全体のグローバルアセスメントのために最近拡張されている。
最近、ドンとルーディンは「十分良い」最終モデルと同じクラスからモデルへの調査の拡張を提案し、1つのモデルに基づく変数の重要性の事前の誇張を特定した。
しかし、この方法は既存のShapleyベースの解釈と直接統合していない。
このギャップを埋めるために、Shapley変数の重要度クラウドを提案し、良いモデルにまたがって情報をプールし、最終モデルのSHAP分析におけるバイアスアセスメントを避けるとともに、新しい視覚化を通して結果を伝える。
刑事司法データと電子カルテデータを用いて,従来の説明やドン・ルディン法と比較し,さらなる知見を示す。
関連論文リスト
- Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Shapley variable importance cloud for machine learning models [4.1359299555083595]
最近開発されたShapley変数重要クラウド(ShapleyVIC)は、包括的で堅牢な変数重要度評価を提供する。
ShapleyVIC推論の利点は実生活予測タスクで実証されている。
より広範なアプリケーションを可能にする機械学習モデルのShapleyVIC実装。
論文 参考訳(メタデータ) (2022-12-16T09:45:22Z) - Consistent Counterfactuals for Deep Models [25.1271020453651]
ファクトファクトの例は、金融や医療診断といった重要な領域における機械学習モデルの予測を説明するために使用される。
本稿では,初期訓練条件に小さな変更を加えた深層ネットワークにおける実例に対するモデル予測の整合性について検討する。
論文 参考訳(メタデータ) (2021-10-06T23:48:55Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - EDDA: Explanation-driven Data Augmentation to Improve Model and
Explanation Alignment [12.729179495550557]
モデル予測と説明手法の整合性を改善する手法を模索する。
我々は,新しい説明駆動型データ拡張(EDDA)手法によりこれを実現した。
これは、モデル予測のために正当領域を除外する単純な動機付け原理に基づいており、モデル予測におけるモデルの信頼性を低下させる。
論文 参考訳(メタデータ) (2021-05-29T00:42:42Z) - Analysis and modeling to forecast in time series: a systematic review [0.0]
本稿では,時系列解析とモデリングに特化した最先端の手法とモデルについて,最終予測をめざして検討する。
本総説は, 時系列分解, 定常試験, モデリング, 予測を網羅し, 全プロセスフローを包括的に把握することを目的としている。
論文 参考訳(メタデータ) (2021-03-31T23:48:46Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。