論文の概要: Causal SHAP: Feature Attribution with Dependency Awareness through Causal Discovery
- arxiv url: http://arxiv.org/abs/2509.00846v1
- Date: Sun, 31 Aug 2025 13:31:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.426982
- Title: Causal SHAP: Feature Attribution with Dependency Awareness through Causal Discovery
- Title(参考訳): Causal SHAP:Causal Discoveryによる依存性認識による特徴属性
- Authors: Woon Yee Ng, Li Rong Wang, Siyuan Liu, Xiuyi Fan,
- Abstract要約: Causal SHAPは因果関係を特徴属性に統合する新しいフレームワークである。
本研究は、因果認識モデル説明のための実践的なフレームワークを提供することにより、説明可能なAI(XAI)の分野に寄与する。
- 参考スコア(独自算出の注目度): 3.717095609283206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining machine learning (ML) predictions has become crucial as ML models are increasingly deployed in high-stakes domains such as healthcare. While SHapley Additive exPlanations (SHAP) is widely used for model interpretability, it fails to differentiate between causality and correlation, often misattributing feature importance when features are highly correlated. We propose Causal SHAP, a novel framework that integrates causal relationships into feature attribution while preserving many desirable properties of SHAP. By combining the Peter-Clark (PC) algorithm for causal discovery and the Intervention Calculus when the DAG is Absent (IDA) algorithm for causal strength quantification, our approach addresses the weakness of SHAP. Specifically, Causal SHAP reduces attribution scores for features that are merely correlated with the target, as validated through experiments on both synthetic and real-world datasets. This study contributes to the field of Explainable AI (XAI) by providing a practical framework for causal-aware model explanations. Our approach is particularly valuable in domains such as healthcare, where understanding true causal relationships is critical for informed decision-making.
- Abstract(参考訳): 機械学習(ML)予測の説明は、医療などの高度な領域にMLモデルがますますデプロイされるにつれて、重要になっている。
SHAP(SHapley Additive exPlanations)はモデル解釈に広く用いられているが、因果関係と相関関係の区別に失敗し、しばしば特徴が高い相関関係にある場合に特徴の重要性を誤解する。
本稿では,因果関係を特徴属性に統合する新しいフレームワークであるCausal SHAPを提案する。
因果発見のためのPeter-Clark(PC)アルゴリズムとDAGが因果強度定量化のためのAbsent(IDA)アルゴリズムである場合のインターベンション計算を組み合わせることで、SHAPの弱点に対処する。
具体的には、Causal SHAPは、合成データセットと実世界のデータセットの両方で検証されているように、ターゲットと単に相関する機能に対する属性スコアを減少させる。
本研究は、因果認識モデル説明のための実践的な枠組みを提供することにより、説明可能なAI(XAI)の分野に寄与する。
我々のアプローチは、真の因果関係の理解が情報的意思決定に不可欠である医療などの分野において特に有用である。
関連論文リスト
- Relational Causal Discovery with Latent Confounders [16.33251047653638]
本稿では,RelFCIを提案する。RelFCIは,潜在共同設立者との相関データに対する完全な因果探索アルゴリズムである。
本稿では,RelFCIが潜在共同設立者との因果関係モデルにおける正しい因果関係の同定に有効であることを示す。
論文 参考訳(メタデータ) (2025-07-02T13:29:35Z) - An AI-powered Bayesian generative modeling approach for causal inference in observational studies [4.624176903641013]
CausalBGMはAIを利用したベイズ生成モデリングアプローチである。
低次元潜在特徴集合の個別分布を学習することにより、個別処理効果(ITE)を推定する。
論文 参考訳(メタデータ) (2025-01-01T06:52:45Z) - CAnDOIT: Causal Discovery with Observational and Interventional Data from Time-Series [4.008958683836471]
CAnDOITは、観測データと介入データの両方を用いて因果モデルを再構築する因果発見手法である。
因果解析における介入データの利用は、ロボット工学のような現実世界の応用には不可欠である。
CAnDOITのPython実装も開発され、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-03T13:57:08Z) - Deep Causal Generative Models with Property Control [11.604321459670315]
我々は相関対応因果変分自動エンコーダ(C2VAE)と呼ばれる新しい深層生成フレームワークを提案する。
C2VAEは、非絡み付き潜在ベクトルを用いて特性間の相関関係と因果関係を同時に回復する。
論文 参考訳(メタデータ) (2024-05-25T13:07:27Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Balancing Explainability-Accuracy of Complex Models [8.402048778245165]
我々は,コリレーションの影響に基づき,複雑なモデルに対する新しいアプローチを提案する。
独立機能と依存機能の両方のシナリオに対するアプローチを提案する。
従属特徴に対する提案手法の複雑さの上限を提供する。
論文 参考訳(メタデータ) (2023-05-23T14:20:38Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。