論文の概要: Shapley variable importance cloud for machine learning models
- arxiv url: http://arxiv.org/abs/2212.08370v1
- Date: Fri, 16 Dec 2022 09:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 16:06:56.208610
- Title: Shapley variable importance cloud for machine learning models
- Title(参考訳): 機械学習モデルのためのshapley variable importance cloud
- Authors: Yilin Ning, Mingxuan Liu, Nan Liu
- Abstract要約: 最近開発されたShapley変数重要クラウド(ShapleyVIC)は、包括的で堅牢な変数重要度評価を提供する。
ShapleyVIC推論の利点は実生活予測タスクで実証されている。
より広範なアプリケーションを可能にする機械学習モデルのShapleyVIC実装。
- 参考スコア(独自算出の注目度): 4.1359299555083595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current practice in interpretable machine learning often focuses on
explaining the final model trained from data, e.g., by using the Shapley
additive explanations (SHAP) method. The recently developed Shapley variable
importance cloud (ShapleyVIC) extends the current practice to a group of
"nearly optimal models" to provide comprehensive and robust variable importance
assessments, with estimated uncertainty intervals for a more complete
understanding of variable contributions to predictions. ShapleyVIC was
initially developed for applications with traditional regression models, and
the benefits of ShapleyVIC inference have been demonstrated in real-life
prediction tasks using the logistic regression model. However, as a
model-agnostic approach, ShapleyVIC application is not limited to such
scenarios. In this work, we extend ShapleyVIC implementation for machine
learning models to enable wider applications, and propose it as a useful
complement to the current SHAP analysis to enable more trustworthy applications
of these black-box models.
- Abstract(参考訳): 解釈可能な機械学習の現在の実践は、例えばShapley additive explanations (SHAP) 法を用いてデータからトレーニングされた最終モデルを説明することに集中することが多い。
最近開発されたShapley変数重要クラウド(ShapleyVIC)は、現在のプラクティスを"ほぼ最適なモデル"のグループに拡張し、予測に対する変数のコントリビューションをより完全に理解するための、より包括的で堅牢な変数重要評価を提供する。
shapleyvicは従来の回帰モデルを持つアプリケーション向けに開発され、shapleyvic推論の利点はロジスティック回帰モデルを用いた実生活予測タスクで実証されている。
しかし、モデルに依存しないアプローチとして、ShapleyVICアプリケーションはそのようなシナリオに限らない。
本研究では、機械学習モデルのShapleyVIC実装を拡張して、より広範なアプリケーションを可能にするとともに、現在のSHAP分析を補完する有用なものとして提案し、これらのブラックボックスモデルのより信頼性の高い応用を可能にする。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Stabilizing Estimates of Shapley Values with Control Variates [3.8642937395065124]
シェープ値は、ブラックボックス機械学習モデルの予測を説明する最も一般的なツールの1つである。
我々の方法論はどんな機械学習モデルにも適用でき、余分な計算やモデリングの労力をほとんど必要としない。
いくつかの高次元データセットでは、シェープリー推定のモンテカルロ変動率を劇的に減少させることができる。
論文 参考訳(メタデータ) (2023-10-11T17:18:51Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - Consistent Counterfactuals for Deep Models [25.1271020453651]
ファクトファクトの例は、金融や医療診断といった重要な領域における機械学習モデルの予測を説明するために使用される。
本稿では,初期訓練条件に小さな変更を加えた深層ネットワークにおける実例に対するモデル予測の整合性について検討する。
論文 参考訳(メタデータ) (2021-10-06T23:48:55Z) - Shapley variable importance clouds for interpretable machine learning [2.830197032154301]
本報告では,最終モデルのSHAP解析におけるバイアス評価を回避するため,優れたモデルにまたがる情報をプールするShapley変数重要クラウドを提案する。
刑事司法データと電子カルテデータを用いたドン・アンド・ルーディン法とを比較検討した。
論文 参考訳(メタデータ) (2021-10-06T03:41:04Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。