論文の概要: LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations
- arxiv url: http://arxiv.org/abs/2310.00570v1
- Date: Sun, 1 Oct 2023 04:09:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:31:06.121334
- Title: LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations
- Title(参考訳): laplace: 確率的局所モデル非依存因果説明
- Authors: Sein Minn
- Abstract要約: 本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
- 参考スコア(独自算出の注目度): 1.0370398945228227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models have undeniably achieved impressive performance
across a range of applications. However, their often perceived black-box
nature, and lack of transparency in decision-making, have raised concerns about
understanding their predictions. To tackle this challenge, researchers have
developed methods to provide explanations for machine learning models. In this
paper, we introduce LaPLACE-explainer, designed to provide probabilistic
cause-and-effect explanations for any classifier operating on tabular data, in
a human-understandable manner. The LaPLACE-Explainer component leverages the
concept of a Markov blanket to establish statistical boundaries between
relevant and non-relevant features automatically. This approach results in the
automatic generation of optimal feature subsets, serving as explanations for
predictions. Importantly, this eliminates the need to predetermine a fixed
number N of top features as explanations, enhancing the flexibility and
adaptability of our methodology. Through the incorporation of conditional
probabilities, our approach offers probabilistic causal explanations and
outperforms LIME and SHAP (well-known model-agnostic explainers) in terms of
local accuracy and consistency of explained features. LaPLACE's soundness,
consistency, local accuracy, and adaptability are rigorously validated across
various classification models. Furthermore, we demonstrate the practical
utility of these explanations via experiments with both simulated and
real-world datasets. This encompasses addressing trust-related issues, such as
evaluating prediction reliability, facilitating model selection, enhancing
trustworthiness, and identifying fairness-related concerns within classifiers.
- Abstract(参考訳): 機械学習モデルは、様々なアプリケーションで素晴らしいパフォーマンスを達成している。
しかし、ブラックボックスの性質や意思決定における透明性の欠如がしばしば認識され、予測を理解することに懸念が持ち上がった。
この課題に対処するため、研究者は機械学習モデルの説明を提供する方法を開発した。
本稿では,表型データで動作する分類器の確率論的原因・効果の説明を,人間に理解可能な方法で提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の統計的境界を自動で確立する。
このアプローチは、予測のための説明として機能する最適な特徴部分集合を自動生成する。
重要なことは、これによって、トップ機能の固定番号Nを説明として事前決定する必要がなくなり、方法論の柔軟性と適応性を高めます。
条件付き確率を組み込むことにより,LIME と SHAP (よく知られたモデルに依存しない説明器) を局所的精度と整合性で解析し,確率論的因果説明と性能を向上させる。
LaPLACEの音質、一貫性、局所精度、適応性は様々な分類モデルで厳格に検証されている。
さらに,シミュレーションと実世界のデータセットを用いた実験を通じて,これらの説明の実用性を示す。
これは、予測信頼性の評価、モデル選択の促進、信頼性の向上、分類器内の公平性に関する懸念の特定など、信頼関連の問題に対処する。
関連論文リスト
- Uncertainty-Aware Explanations Through Probabilistic Self-Explainable Neural Networks [17.238290206236027]
プロトタイプベースの自己説明型ニューラルネットワークは、深いが透過的な設計アーキテクチャを提供する。
本稿では,PSENNの確率的再構成(Prob-PSENN)を導入する。
実験の結果, Prob-PSENN は確率的でないものよりも有意義でロバストな説明を提供することがわかった。
論文 参考訳(メタデータ) (2024-03-20T16:47:28Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Variational Shapley Network: A Probabilistic Approach to Self-Explaining
Shapley values with Uncertainty Quantification [2.6699011287124366]
シェープ価値は、モデル決定プロセスの解明のための機械学習(ML)の基礎ツールとして現れている。
本稿では,Shapley値の計算を大幅に単純化し,単一のフォワードパスしか必要としない,新しい自己説明手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines [0.0]
解釈性は法的、倫理的、実践的な理由において不可欠である。
高性能モデルは、冗長な特徴と単一機能支配との素早い相互作用に悩まされることがある。
本稿では,これらの課題に対処するための新しいアプローチとして,代替のクロスフィーチャー選択,アンサンブル機能,モデル構成変更手法について検討する。
論文 参考訳(メタデータ) (2023-07-17T13:47:41Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。