論文の概要: A Baseline for Shapley Values in MLPs: from Missingness to Neutrality
- arxiv url: http://arxiv.org/abs/2006.04896v3
- Date: Mon, 9 Aug 2021 20:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:09:41.283638
- Title: A Baseline for Shapley Values in MLPs: from Missingness to Neutrality
- Title(参考訳): MLPにおける共有値のベースライン:欠落から中立へ
- Authors: Cosimo Izzo and Aldo Lipani and Ramin Okhrati and Francesca Medda
- Abstract要約: ディープニューラルネットワークはその正確性に基づいて勢いを増しているが、その解釈可能性はしばしば批判されている。
本稿では,中立値に応じてベースラインを選択する手法を提案する。
バイナリ分類タスクの文脈におけるベースラインの選択を実証的に検証する。
- 参考スコア(独自算出の注目度): 3.5939555573102853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have gained momentum based on their accuracy, but their
interpretability is often criticised. As a result, they are labelled as black
boxes. In response, several methods have been proposed in the literature to
explain their predictions. Among the explanatory methods, Shapley values is a
feature attribution method favoured for its robust theoretical foundation.
However, the analysis of feature attributions using Shapley values requires
choosing a baseline that represents the concept of missingness. An arbitrary
choice of baseline could negatively impact the explanatory power of the method
and possibly lead to incorrect interpretations. In this paper, we present a
method for choosing a baseline according to a neutrality value: as a parameter
selected by decision-makers, the point at which their choices are determined by
the model predictions being either above or below it. Hence, the proposed
baseline is set based on a parameter that depends on the actual use of the
model. This procedure stands in contrast to how other baselines are set, i.e.
without accounting for how the model is used. We empirically validate our
choice of baseline in the context of binary classification tasks, using two
datasets: a synthetic dataset and a dataset derived from the financial domain.
- Abstract(参考訳): ディープニューラルネットワークはその正確性に基づいて勢いを増しているが、その解釈性はしばしば批判されている。
その結果、ブラックボックスとしてラベル付けされる。
それらの予測を説明するためにいくつかの手法が文献に提案されている。
説明法の中で、シェープリーの値は、その堅牢な理論的基礎のために好まれる特徴帰属法である。
しかし、Shapley値を用いた特徴属性の分析では、欠落の概念を表すベースラインを選択する必要がある。
任意のベースラインの選択は、メソッドの説明力に悪影響を及ぼし、誤った解釈につながる可能性がある。
本稿では,意思決定者によって選択されたパラメータとして,モデル予測が上か下かによって決定される点について,中立度値に従ってベースラインを選択する方法を提案する。
したがって、提案したベースラインは、実際のモデルの使用に依存するパラメータに基づいて設定される。
この手順は、モデルの使い方を考慮せずに、他のベースラインの設定方法とは対照的である。
金融分野から派生した合成データセットとデータセットの2つのデータセットを用いて、バイナリ分類タスクの文脈におけるベースラインの選択を実証的に検証する。
関連論文リスト
- Unlearning-based Neural Interpretations [51.99182464831169]
静的関数を用いて定義される現在のベースラインは、バイアスがあり、脆弱であり、操作可能であることを示す。
UNIは、学習不可能で、偏りがなく、適応的なベースラインを計算し、入力を最も急な上昇の未学習方向に向けて摂動させることを提案する。
論文 参考訳(メタデータ) (2024-10-10T16:02:39Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - The Optimal Input-Independent Baseline for Binary Classification: The
Dutch Draw [0.0]
本研究の目的は,特徴値に依存しない基本手法について検討することである。
どのベースラインモデルが最適かを特定することにより、評価プロセスにおける重要な選択決定が簡単になる。
論文 参考訳(メタデータ) (2023-01-09T13:11:59Z) - Deep Learning for the Benes Filter [91.3755431537592]
本研究では,メッシュのないニューラルネットワークによるベンズモデルの解の密度の表現に基づく新しい数値計算法を提案する。
ニューラルネットワークの領域選択におけるフィルタリングモデル方程式における非線形性の役割について論じる。
論文 参考訳(メタデータ) (2022-03-09T14:08:38Z) - Explaining predictive models using Shapley values and non-parametric
vine copulas [2.6774008509840996]
特徴間の依存をモデル化するための2つの新しいアプローチを提案する。
提案手法の性能はシミュレーションされたデータセットと実データセットで評価される。
実験により、ブドウのコプラアプローチは、ライバルよりも真のシャプリー値により正確な近似を与えることが示された。
論文 参考訳(メタデータ) (2021-02-12T09:43:28Z) - On Baselines for Local Feature Attributions [6.700433100198165]
ローカル機能帰属メソッドはブラックボックスモデルを説明するのに役立つ。
ほとんどの属性モデルは、入力特徴の重要性と基準値(しばしばベースラインと呼ばれる)を比較する。
最近の研究では、ベースラインが特徴属性の品質に大きな影響を与えることが示されている。
論文 参考訳(メタデータ) (2021-01-04T11:48:42Z) - Predictive and Causal Implications of using Shapley Value for Model
Interpretation [6.744385328015561]
我々は、予測モデルと因果モデルの両方において重要な概念である、シェープ価値と条件独立の関係を確立した。
その結果,モデルから高いShapley値を持つ変数を排除しても必ずしも予測性能を損なうとは限らないことが示唆された。
さらに重要なことに、変数のShapley値は、関心の対象との因果関係を反映しない。
論文 参考訳(メタデータ) (2020-08-12T01:08:08Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。