論文の概要: Causal Explainability of Machine Learning in Heart Failure Prediction from Electronic Health Records
- arxiv url: http://arxiv.org/abs/2506.03068v1
- Date: Tue, 03 Jun 2025 16:46:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.872258
- Title: Causal Explainability of Machine Learning in Heart Failure Prediction from Electronic Health Records
- Title(参考訳): 電子カルテによる心不全予測における機械学習の因果説明可能性
- Authors: Yina Hou, Shourav B. Rabbani, Liang Hong, Norou Diawara, Manar D. Samad,
- Abstract要約: 統計的相関や機械学習(ML)を用いて, 疾患予後における臨床変数の重要性を解説する。
本稿では, 心不全(HF)患者のコホートから得られた臨床変数を用いて, 統計学的およびML的文脈において得られた重要な変数の因果的説明可能性について検討する。
- 参考スコア(独自算出の注目度): 1.1068280788997429
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The importance of clinical variables in the prognosis of the disease is explained using statistical correlation or machine learning (ML). However, the predictive importance of these variables may not represent their causal relationships with diseases. This paper uses clinical variables from a heart failure (HF) patient cohort to investigate the causal explainability of important variables obtained in statistical and ML contexts. Due to inherent regression modeling, popular causal discovery methods strictly assume that the cause and effect variables are numerical and continuous. This paper proposes a new computational framework to enable causal structure discovery (CSD) and score the causal strength of mixed-type (categorical, numerical, binary) clinical variables for binary disease outcomes. In HF classification, we investigate the association between the importance rank order of three feature types: correlated features, features important for ML predictions, and causal features. Our results demonstrate that CSD modeling for nonlinear causal relationships is more meaningful than its linear counterparts. Feature importance obtained from nonlinear classifiers (e.g., gradient-boosting trees) strongly correlates with the causal strength of variables without differentiating cause and effect variables. Correlated variables can be causal for HF, but they are rarely identified as effect variables. These results can be used to add the causal explanation of variables important for ML-based prediction modeling.
- Abstract(参考訳): 本疾患の予後における臨床変数の重要性は,統計的相関や機械学習(ML)を用いて説明される。
しかし、これらの変数の予測的重要性は、疾患との因果関係を表さないかもしれない。
本稿では, 心不全(HF)患者のコホートから得られた臨床変数を用いて, 統計学的およびML的文脈において得られた重要な変数の因果的説明可能性について検討する。
固有回帰モデルにより、因果探索法は原因変数と効果変数が数値的かつ連続的であることを厳密に仮定する。
本稿では,2成分性疾患に対する混合型(分類的,数値的,二項性)臨床変数の因果的強度を評価するための新しい計算手法を提案する。
HF分類では,3つの特徴タイプ(相関特徴,ML予測に重要な特徴,因果的特徴)のランク順序の関連について検討した。
本研究では,非線形因果関係のCSDモデリングが線形関係よりも有意であることを示す。
非線形分類器(例えば、勾配木)から得られる特徴的重要性は、原因変数と効果変数を区別せずに変数の因果強度と強く相関する。
関連する変数はHFには因果であるが、効果変数として識別されることは稀である。
これらの結果は、MLベースの予測モデルにおいて重要な変数の因果説明を追加するために利用できる。
関連論文リスト
- Challenges in Variable Importance Ranking Under Correlation [6.718144470265263]
本稿では,特徴相関が変数重要度評価に与える影響を総合シミュレーションで検討する。
ノックオフ変数と対応する予測変数の間には相関関係は常に存在しないが、相関関係が予測変数間の特定の相関しきい値を超えて線形に増加することを証明している。
論文 参考訳(メタデータ) (2024-02-05T19:02:13Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Discovery of Causal Additive Models in the Presence of Unobserved
Variables [6.670414650224422]
観測されていない変数に影響されたデータからの因果発見は、重要だが解決が難しい問題である。
本研究では,非観測変数に偏らされることなく理論的に同定可能なすべての因果関係を同定する手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T03:28:27Z) - Estimating Causal Effects with the Neural Autoregressive Density
Estimator [6.59529078336196]
我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
論文 参考訳(メタデータ) (2020-08-17T13:12:38Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。