論文の概要: Explaining predictive models with mixed features using Shapley values
and conditional inference trees
- arxiv url: http://arxiv.org/abs/2007.01027v1
- Date: Thu, 2 Jul 2020 11:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 13:15:03.872835
- Title: Explaining predictive models with mixed features using Shapley values
and conditional inference trees
- Title(参考訳): Shapley値と条件推論木を用いた混合特徴付き予測モデルの記述
- Authors: Annabelle Redelmeier, Martin Jullum, and Kjersti Aas
- Abstract要約: シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
- 参考スコア(独自算出の注目度): 1.8065361710947976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is becoming increasingly important to explain complex, black-box machine
learning models. Although there is an expanding literature on this topic,
Shapley values stand out as a sound method to explain predictions from any type
of machine learning model. The original development of Shapley values for
prediction explanation relied on the assumption that the features being
described were independent. This methodology was then extended to explain
dependent features with an underlying continuous distribution. In this paper,
we propose a method to explain mixed (i.e. continuous, discrete, ordinal, and
categorical) dependent features by modeling the dependence structure of the
features using conditional inference trees. We demonstrate our proposed method
against the current industry standards in various simulation studies and find
that our method often outperforms the other approaches. Finally, we apply our
method to a real financial data set used in the 2018 FICO Explainable Machine
Learning Challenge and show how our explanations compare to the FICO challenge
Recognition Award winning team.
- Abstract(参考訳): 複雑なブラックボックス機械学習モデルを説明することがますます重要になっている。
このトピックに関する文献は拡大しているが、Shapleyの値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
予測説明のためのShapley値の当初の開発は、記述されている特徴が独立しているという仮定に依存していた。
この方法論は、基礎となる連続分布で依存する特徴を説明するために拡張された。
本稿では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合特徴(連続的,離散的,順序的,類型的)に依存する特徴を説明する手法を提案する。
提案手法は, 様々なシミュレーション研究において, 現在の業界標準に対して, 提案手法が他の手法よりも優れていることを実証する。
最後に,本手法を2018 fico explainsable machine learning challengeで使用した実金融データセットに適用し,fico challenge recognition awardの受賞チームとの比較を行った。
関連論文リスト
- Explaining Predictive Uncertainty with Information Theoretic Shapley
Values [6.49838460559032]
我々は、様々な種類の予測の不確実性を説明するために、人気のShapley値フレームワークを適用します。
我々は,実データおよびシミュレーションデータに対して,様々な実験でよく動作する効率的なアルゴリズムを実装した。
論文 参考訳(メタデータ) (2023-06-09T07:43:46Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Unified Shapley Framework to Explain Prediction Drift [0.0]
この問題に対処するための公理的に正当化された方法として,GroupShapley と GroupIG を提案する。
そのために、Shapley値に基づいた現在の機能/データの重要度を、分散比較の本質的に問題として再設定します。
分布差の特定の望ましい特性を公理化し、それらを選択することの意味を研究する。
論文 参考訳(メタデータ) (2021-02-15T21:58:19Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - Accurate and Intuitive Contextual Explanations using Linear Model Trees [0.0]
ローカルなポストホックモデル説明が広く採用されている。
技術手法の現状は、初歩的な手法を用いて説明すべき点の周囲に合成データを生成する。
我々は、合成データ生成にジェネレーティブ・アドバイサル・ネットワークを使用し、線形モデルツリーの形で断片的な線形モデルを訓練する。
論文 参考訳(メタデータ) (2020-09-11T10:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。