論文の概要: Shapley value-based approaches to explain the robustness of classifiers
in machine learning
- arxiv url: http://arxiv.org/abs/2209.04254v1
- Date: Fri, 9 Sep 2022 11:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:24:35.817051
- Title: Shapley value-based approaches to explain the robustness of classifiers
in machine learning
- Title(参考訳): 共有価値に基づく機械学習における分類器の堅牢性の説明手法
- Authors: Guilherme Dean Pelegrina and Sajid Siraj
- Abstract要約: 受動特性曲線(ROC)とROC曲線下の面積(AUC)で測定したモデルのロバスト性に対する各特徴の寄与について説明する。
図示的な例の助けを借りて、ROC曲線の説明とこれらの曲線の不確かさの可視化という提案されたアイデアを実証する。
- 参考スコア(独自算出の注目度): 4.797216015572357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, the use of algorithm-agnostic approaches is an emerging
area of research for explaining the contribution of individual features towards
the predicted outcome. Whilst there is a focus on explaining the prediction
itself, a little has been done on explaining the robustness of these models,
that is, how each feature contributes towards achieving that robustness. In
this paper, we propose the use of Shapley values to explain the contribution of
each feature towards the model's robustness, measured in terms of
Receiver-operating Characteristics (ROC) curve and the Area under the ROC curve
(AUC). With the help of an illustrative example, we demonstrate the proposed
idea of explaining the ROC curve, and visualising the uncertainties in these
curves. For imbalanced datasets, the use of Precision-Recall Curve (PRC) is
considered more appropriate, therefore we also demonstrate how to explain the
PRCs with the help of Shapley values.
- Abstract(参考訳): 機械学習におけるアルゴリズム非依存アプローチの利用は、予測結果に対する個々の特徴の寄与を説明するための新たな研究分野である。
予測そのものを説明することに焦点が当てられているが、これらのモデルの堅牢性、すなわち、それぞれの機能がその堅牢性を達成するためにどのように貢献するかを説明することはほとんど行われていない。
本稿では,各特徴のロバスト性への寄与を説明するためにShapley値を用い,受信者操作特性(ROC)曲線とROC曲線(AUC)領域を用いて測定した。
実証的な例の助けを借りて、ROC曲線を説明し、これらの曲線の不確かさを可視化する提案を行った。
不均衡なデータセットに対しては、PRC(Precision-Recall Curve)の使用がより適切と考えられるため、Shapley値の助けを借りてPRCを説明する方法も示す。
関連論文リスト
- Precision of Individual Shapley Value Explanations [0.0]
共有値は、複雑な機械学習(ML)モデルによる予測を説明するためのフレームワークとして、説明可能な人工知能(XAI)で広く使用されている。
本研究では, トレーニングデータ分布の外部領域の観測において, 系統的に精度が低いことを示す。
これは統計的観点から予測されるが、我々の知る限りでは、シェープリー価値文学において体系的に扱われていない。
論文 参考訳(メタデータ) (2023-12-06T13:29:23Z) - Value-Distributional Model-Based Reinforcement Learning [63.32053223422317]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Explaining the Uncertain: Stochastic Shapley Values for Gaussian Process
Models [15.715453687736028]
本稿では,GPの完全な解析的共分散構造を利用するガウス過程 (GP) を説明するための新しい手法を提案する。
提案手法は,協調ゲームに拡張されたShapley値の一般的な解概念に基づいて,ランダム変数である説明を行う。
提案手法を用いて生成したGP説明は,Shapley値と類似の公理を満足し,特徴量やデータ観測にまたがるトラクタブルな共分散関数を有する。
論文 参考訳(メタデータ) (2023-05-24T13:59:03Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Rigorous Explanation of Inference on Probabilistic Graphical Models [17.96228289921288]
本稿では、Shapley値の分解性、計算用MRFの構造、BP推論の反復性を統合するためにGraphShapleyを提案する。
9つのグラフ上では、GraphShapleyが合理的で実用的な説明を提供することを示す。
論文 参考訳(メタデータ) (2020-04-21T14:57:12Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。