論文の概要: Explaining predictive models using Shapley values and non-parametric
vine copulas
- arxiv url: http://arxiv.org/abs/2102.06416v1
- Date: Fri, 12 Feb 2021 09:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-15 13:14:34.624470
- Title: Explaining predictive models using Shapley values and non-parametric
vine copulas
- Title(参考訳): Shapley値と非パラメトリックブインコプラを用いた予測モデルの説明
- Authors: Kjersti Aas, Thomas Nagler, Martin Jullum, Anders L{\o}land
- Abstract要約: 特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
- 参考スコア(独自算出の注目度): 2.6774008509840996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The original development of Shapley values for prediction explanation relied
on the assumption that the features being described were independent. If the
features in reality are dependent this may lead to incorrect explanations.
Hence, there have recently been attempts of appropriately modelling/estimating
the dependence between the features. Although the proposed methods clearly
outperform the traditional approach assuming independence, they have their
weaknesses. In this paper we propose two new approaches for modelling the
dependence between the features.
Both approaches are based on vine copulas, which are flexible tools for
modelling multivariate non-Gaussian distributions able to characterise a wide
range of complex dependencies.
The performance of the proposed methods is evaluated on simulated data sets
and a real data set. The experiments demonstrate that the vine copula
approaches give more accurate approximations to the true Shapley values than
its competitors.
- Abstract(参考訳): 予測説明のためのShapley値の当初の開発は、記述される特徴が独立しているという仮定に依存していた。
現実の機能が依存している場合、誤った説明につながる可能性がある。
そのため、最近は機能間の依存性を適切にモデル化し、見積もる試みがある。
提案手法は、独立性を前提とした従来のアプローチを明らかに上回るが、弱点がある。
本稿では,特徴間の依存性をモデル化する2つの新しい手法を提案する。
どちらのアプローチも、多変量非ガウス分布をモデル化するための柔軟なツールであり、広範囲の複雑な依存性を特徴付けることができる。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験は、ブドウのコプラアプローチが競合他社よりも真のシャプリー値により正確な近似を与えることを実証しています。
関連論文リスト
- Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Explaining Predictive Uncertainty with Information Theoretic Shapley
Values [6.49838460559032]
我々は、様々な種類の予測の不確実性を説明するために、人気のShapley値フレームワークを適用します。
我々は,実データおよびシミュレーションデータに対して,様々な実験でよく動作する効率的なアルゴリズムを実装した。
論文 参考訳(メタデータ) (2023-06-09T07:43:46Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Causal Shapley Values: Exploiting Causal Knowledge to Explain Individual
Predictions of Complex Models [6.423239719448169]
シェープ値は、モデルの予測と平均ベースラインの差をモデルへの入力として使用する異なる特徴に関連付けるように設計されている。
これらの「因果」シャプリー値が、それらの望ましい性質を犠牲にすることなく、一般因果グラフに対してどのように導出できるかを示す。
論文 参考訳(メタデータ) (2020-11-03T11:11:36Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。