論文の概要: PWSHAP: A Path-Wise Explanation Model for Targeted Variables
- arxiv url: http://arxiv.org/abs/2306.14672v1
- Date: Mon, 26 Jun 2023 13:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:37:41.378846
- Title: PWSHAP: A Path-Wise Explanation Model for Targeted Variables
- Title(参考訳): PWSHAP: 対象変数のパスウェイズ説明モデル
- Authors: Lucile Ter-Minassian, Oscar Clivio, Karla Diaz-Ordaz, Robin J. Evans,
Chris Holmes
- Abstract要約: 本稿では、複雑な結果モデルからバイナリの目的効果を評価するためのフレームワークであるPath-Wise Shapley効果を紹介する。
我々のアプローチは、ユーザ定義の非巡回グラフ(DAG)を用いて予測モデルを増強する。
PWSHAPはモデルに忠実に局所バイアスと媒介分析を行うことができることを示す。
- 参考スコア(独自算出の注目度): 2.887393074590696
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predictive black-box models can exhibit high accuracy but their opaque nature
hinders their uptake in safety-critical deployment environments. Explanation
methods (XAI) can provide confidence for decision-making through increased
transparency. However, existing XAI methods are not tailored towards models in
sensitive domains where one predictor is of special interest, such as a
treatment effect in a clinical model, or ethnicity in policy models. We
introduce Path-Wise Shapley effects (PWSHAP), a framework for assessing the
targeted effect of a binary (e.g.~treatment) variable from a complex outcome
model. Our approach augments the predictive model with a user-defined directed
acyclic graph (DAG). The method then uses the graph alongside on-manifold
Shapley values to identify effects along causal pathways whilst maintaining
robustness to adversarial attacks. We establish error bounds for the identified
path-wise Shapley effects and for Shapley values. We show PWSHAP can perform
local bias and mediation analyses with faithfulness to the model. Further, if
the targeted variable is randomised we can quantify local effect modification.
We demonstrate the resolution, interpretability, and true locality of our
approach on examples and a real-world experiment.
- Abstract(参考訳): 予測型ブラックボックスモデルは高い精度を示すが、その不透明な性質は安全クリティカルなデプロイメント環境への取り込みを妨げる。
説明方法(XAI)は透明性の向上を通じて意思決定に自信を与える。
しかし、既存のXAI法は、臨床モデルにおける治療効果や政策モデルにおける民族性など、1つの予測者が特別な関心を持つセンシティブな領域のモデルには適していない。
PWSHAP(Path-Wise Shapley Effect)は、複雑な結果モデルから、バイナリ(例えば、処理)変数のターゲット効果を評価するためのフレームワークである。
提案手法は,ユーザ定義の非巡回グラフ(DAG)を用いて予測モデルを拡張する。
この手法は、逆攻撃に対する堅牢性を保ちながら、シャプリーのオンマンフォールド値と共にグラフを用いて因果経路に沿った効果を識別する。
同定されたパスワイズシャプリー効果とシャプリー値の誤差境界を定式化する。
PWSHAPはモデルに忠実に局所バイアスと媒介分析を行うことができることを示す。
さらに、対象変数がランダム化されると、局所効果の修正を定量化できる。
実例と実世界の実験において,我々のアプローチの解法,解釈可能性,真の局所性を示す。
関連論文リスト
- Outlier Gradient Analysis: Efficiently Improving Deep Learning Model Performance via Hessian-Free Influence Functions [36.05242956018461]
影響関数は、各データサンプルがモデル予測に与える影響を評価するための堅牢なツールを提供する。
本稿では,データ中心のシナリオ – トリミングアウトレーヤ – と統合フレームワークにおける両課題に焦点を当てる。
論文 参考訳(メタデータ) (2024-05-06T21:34:46Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Hierarchical Bias-Driven Stratification for Interpretable Causal Effect
Estimation [1.6874375111244329]
BICauseTreeは、自然実験が局所的に発生するクラスタを識別する解釈可能なバランシング手法である。
合成および現実的なデータセットを用いて手法の性能を評価し、バイアス-解釈可能性トレードオフを探索し、既存の手法に匹敵することを示す。
論文 参考訳(メタデータ) (2024-01-31T10:58:13Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Plan To Predict: Learning an Uncertainty-Foreseeing Model for
Model-Based Reinforcement Learning [32.24146877835396]
本稿では,モデルロールアウト処理を逐次決定問題として扱うフレームワークであるemphPlan To Predict (P2P)を提案する。
P2Pは、いくつかの課題のあるベンチマークタスクにおいて最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-01-20T10:17:22Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Selecting Treatment Effects Models for Domain Adaptation Using Causal
Knowledge [82.5462771088607]
監視されていないドメイン適応設定下でITE法用に特別に設計された新しいモデル選択メトリックを提案する。
特に,介入効果の予測が対象領域の既知の因果構造を満たすモデルを選択することを提案する。
論文 参考訳(メタデータ) (2021-02-11T21:03:14Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。