論文の概要: An AI-powered Bayesian generative modeling approach for causal inference in observational studies
- arxiv url: http://arxiv.org/abs/2501.00755v1
- Date: Wed, 01 Jan 2025 06:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:42.768340
- Title: An AI-powered Bayesian generative modeling approach for causal inference in observational studies
- Title(参考訳): 因果推論のためのAIを用いたベイズ生成モデルによる観察研究
- Authors: Qiao Liu, Wing Hung Wong,
- Abstract要約: CausalBGMはAIを利用したベイズ生成モデリングアプローチである。
低次元潜在特徴集合の個別分布を学習することにより、個別処理効果(ITE)を推定する。
- 参考スコア(独自算出の注目度): 4.624176903641013
- License:
- Abstract: Causal inference in observational studies with high-dimensional covariates presents significant challenges. We introduce CausalBGM, an AI-powered Bayesian generative modeling approach that captures the causal relationship among covariates, treatment, and outcome variables. The core innovation of CausalBGM lies in its ability to estimate the individual treatment effect (ITE) by learning individual-specific distributions of a low-dimensional latent feature set (e.g., latent confounders) that drives changes in both treatment and outcome. This approach not only effectively mitigates confounding effects but also provides comprehensive uncertainty quantification, offering reliable and interpretable causal effect estimates at the individual level. CausalBGM adopts a Bayesian model and uses a novel iterative algorithm to update the model parameters and the posterior distribution of latent features until convergence. This framework leverages the power of AI to capture complex dependencies among variables while adhering to the Bayesian principles. Extensive experiments demonstrate that CausalBGM consistently outperforms state-of-the-art methods, particularly in scenarios with high-dimensional covariates and large-scale datasets. Its Bayesian foundation ensures statistical rigor, providing robust and well-calibrated posterior intervals. By addressing key limitations of existing methods, CausalBGM emerges as a robust and promising framework for advancing causal inference in modern applications in fields such as genomics, healthcare, and social sciences. CausalBGM is maintained at the website https://causalbgm.readthedocs.io/.
- Abstract(参考訳): 高次元共変量を用いた観測研究における因果推論は重要な課題である。
我々は、共変量、治療、結果変数間の因果関係をキャプチャするAIによるベイズ生成モデリングアプローチであるCausalBGMを紹介する。
CausalBGMの中核的な革新は、治療と結果の両方に変化をもたらす低次元の潜在的特徴セット(例えば、潜在的共同創設者)の個々の特定の分布を学習することで、個々の治療効果(ITE)を推定する能力にある。
このアプローチは、効果的に境界効果を緩和するだけでなく、個々のレベルで信頼性と解釈可能な因果効果推定を提供する包括的な不確実性定量化も提供する。
CausalBGMはベイズモデルを採用し、新しい反復アルゴリズムを用いてモデルパラメータと潜在特徴の後方分布を収束まで更新する。
このフレームワークは、AIの力を利用して変数間の複雑な依存関係をキャプチャし、ベイズ原理に準拠している。
大規模な実験により、CausalBGMは、特に高次元の共変量と大規模データセットを持つシナリオにおいて、最先端の手法を一貫して上回ることを示した。
ベイズの基礎は統計的厳密性を確保し、頑健で校正された後続区間を提供する。
既存の手法の重要な制限に対処することによって、CausalBGMはゲノム学、医療、社会科学といった分野における現代の応用における因果推論を前進させる、堅牢で有望なフレームワークとして出現する。
CausalBGM は Web サイト https://causalbgm.readthedocs.io/ でメンテナンスされている。
関連論文リスト
- The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Robust Estimation of Causal Heteroscedastic Noise Models [7.568978862189266]
学生の$t$-distributionは、より小さなサンプルサイズと極端な値で、全体の分布形態を著しく変えることなく、サンプル変数をサンプリングすることの堅牢さで知られている。
我々の経験的評価は、我々の推定器はより堅牢で、合成ベンチマークと実ベンチマークの総合的な性能が向上していることを示している。
論文 参考訳(メタデータ) (2023-12-15T02:26:35Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。