論文の概要: Shapley value-based approaches to explain the robustness of classifiers
in machine learning
- arxiv url: http://arxiv.org/abs/2209.04254v1
- Date: Fri, 9 Sep 2022 11:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:24:35.817051
- Title: Shapley value-based approaches to explain the robustness of classifiers
in machine learning
- Title(参考訳): 共有価値に基づく機械学習における分類器の堅牢性の説明手法
- Authors: Guilherme Dean Pelegrina and Sajid Siraj
- Abstract要約: 受動特性曲線(ROC)とROC曲線下の面積(AUC)で測定したモデルのロバスト性に対する各特徴の寄与について説明する。
図示的な例の助けを借りて、ROC曲線の説明とこれらの曲線の不確かさの可視化という提案されたアイデアを実証する。
- 参考スコア(独自算出の注目度): 4.797216015572357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In machine learning, the use of algorithm-agnostic approaches is an emerging
area of research for explaining the contribution of individual features towards
the predicted outcome. Whilst there is a focus on explaining the prediction
itself, a little has been done on explaining the robustness of these models,
that is, how each feature contributes towards achieving that robustness. In
this paper, we propose the use of Shapley values to explain the contribution of
each feature towards the model's robustness, measured in terms of
Receiver-operating Characteristics (ROC) curve and the Area under the ROC curve
(AUC). With the help of an illustrative example, we demonstrate the proposed
idea of explaining the ROC curve, and visualising the uncertainties in these
curves. For imbalanced datasets, the use of Precision-Recall Curve (PRC) is
considered more appropriate, therefore we also demonstrate how to explain the
PRCs with the help of Shapley values.
- Abstract(参考訳): 機械学習におけるアルゴリズム非依存アプローチの利用は、予測結果に対する個々の特徴の寄与を説明するための新たな研究分野である。
予測そのものを説明することに焦点が当てられているが、これらのモデルの堅牢性、すなわち、それぞれの機能がその堅牢性を達成するためにどのように貢献するかを説明することはほとんど行われていない。
本稿では,各特徴のロバスト性への寄与を説明するためにShapley値を用い,受信者操作特性(ROC)曲線とROC曲線(AUC)領域を用いて測定した。
実証的な例の助けを借りて、ROC曲線を説明し、これらの曲線の不確かさを可視化する提案を行った。
不均衡なデータセットに対しては、PRC(Precision-Recall Curve)の使用がより適切と考えられるため、Shapley値の助けを借りてPRCを説明する方法も示す。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Improving the Sampling Strategy in KernelSHAP [0.8057006406834466]
KernelSHAPフレームワークは、重み付けされた条件付き期待値のサンプルサブセットを用いて、Shapley値の近似を可能にする。
本稿では,現在最先端戦略における重みの分散を低減するための安定化手法,サンプルサブセットに基づいてShapleyカーネル重みを補正する新しい重み付け方式,および重要なサブセットを包含して修正されたShapleyカーネル重みと統合する簡単な戦略を提案する。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Shapley Marginal Surplus for Strong Models [0.9831489366502301]
我々は、Shapley値がモデル予測の正確な説明であるが、機械学習モデル自体が真のデータ生成プロセス(DGP)の貧弱な説明であることを示している。
そこで,本研究では,特徴量から推定されるモデル空間を抽出する,新しい変数重要度アルゴリズム,Shapley Marginal Surplus for Strong Modelsを導入する。
論文 参考訳(メタデータ) (2024-08-16T17:06:07Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - Incorporating Causal Graphical Prior Knowledge into Predictive Modeling
via Simple Data Augmentation [92.96204497841032]
因果グラフ(CG)は、データ分散の背後にあるデータ生成プロセスの知識のコンパクトな表現である。
本研究では,条件付き独立性(CI)関係の事前知識を活用可能なモデルに依存しないデータ拡張手法を提案する。
本手法は,小データシステムにおける予測精度の向上に有効であることを実験的に示した。
論文 参考訳(メタデータ) (2021-02-27T06:13:59Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Rigorous Explanation of Inference on Probabilistic Graphical Models [17.96228289921288]
本稿では、Shapley値の分解性、計算用MRFの構造、BP推論の反復性を統合するためにGraphShapleyを提案する。
9つのグラフ上では、GraphShapleyが合理的で実用的な説明を提供することを示す。
論文 参考訳(メタデータ) (2020-04-21T14:57:12Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。