論文の概要: DeCaFlow: A Deconfounding Causal Generative Model
- arxiv url: http://arxiv.org/abs/2503.15114v1
- Date: Wed, 19 Mar 2025 11:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:22:44.066132
- Title: DeCaFlow: A Deconfounding Causal Generative Model
- Title(参考訳): DeCaFlow: 分離された因果生成モデル
- Authors: Alejandro Almodóvar, Adrián Javaloy, Juan Parras, Santiago Zazo, Isabel Valera,
- Abstract要約: 因果生成モデル (Causal Generative Model, CGM) は近年, 因果機構をシミュレートする有効な手法として出現している。
私たちは、観測データと因果グラフのみを使用して、単一の償却トレーニングプロセスにおいて、隠れた共同設立者を説明するCGMであるDeCaFlowを紹介します。
我々の知る限りでは、構築された反ファクトクエリが識別可能であり、したがってDeCaFlowによって解決可能であることを示す。
- 参考スコア(独自算出の注目度): 58.411886466157185
- License:
- Abstract: Causal generative models (CGMs) have recently emerged as capable approaches to simulate the causal mechanisms generating our observations, enabling causal inference. Unfortunately, existing approaches either are overly restrictive, assuming the absence of hidden confounders, or lack generality, being tailored to a particular query and graph. In this work, we introduce DeCaFlow, a CGM that accounts for hidden confounders in a single amortized training process using only observational data and the causal graph. Importantly, DeCaFlow can provably identify all causal queries with a valid adjustment set or sufficiently informative proxy variables. Remarkably, for the first time to our knowledge, we show that a confounded counterfactual query is identifiable, and thus solvable by DeCaFlow, as long as its interventional counterpart is as well. Our empirical results on diverse settings (including the Ecoli70 dataset, with 3 independent hidden confounders, tens of observed variables and hundreds of causal queries) show that DeCaFlow outperforms existing approaches, while demonstrating its out-of-the-box flexibility.
- Abstract(参考訳): 因果生成モデル(Causal Generative Model, CGM)は近年, 因果推論を可能にする因果機構をシミュレートするための有能なアプローチとして出現している。
残念ながら、既存のアプローチは過剰に制限され、隠れた共同創設者がいないと仮定するか、あるいは汎用性がないと仮定し、特定のクエリとグラフに合わせて調整される。
本研究では,観測データと因果グラフのみを用いて,隠れた共同創設者をひとつの修復トレーニングプロセスで説明するCGMであるDeCaFlowを紹介する。
重要なのは、DeCaFlowは有効な調整セットまたは十分な情報的プロキシ変数で、すべての因果クエリを確実に識別できることだ。
注目すべきは、私たちの知る限り初めて、確立された反ファクトクエリが識別可能であり、介入相手が同じである限り、DeCaFlowによって解決可能であることを示しています。
さまざまな設定に関する実証的な結果(Ecoli70データセット、独立した3人の共同創設者、数十の変数、数百の因果クエリを含む)は、DeCaFlowが既存のアプローチよりも優れており、アウトオブボックスの柔軟性を示していることを示している。
関連論文リスト
- Demystifying amortized causal discovery with transformers [21.058343547918053]
観測データからの因果発見のための教師付き学習アプローチは、しばしば競争性能を達成する。
本研究では,CSIvAについて検討する。CSIvAは,合成データのトレーニングと実データへの転送を約束するトランスフォーマーモデルである。
既存の識別可能性理論とギャップを埋め、トレーニングデータ分布の制約がテスト観測の事前を暗黙的に定義していることを示します。
論文 参考訳(メタデータ) (2024-05-27T08:17:49Z) - Detection of Unobserved Common Causes based on NML Code in Discrete,
Mixed, and Continuous Variables [1.5039745292757667]
2つの確率変数間の因果関係を次の4つのカテゴリに分類する。
我々は,CLOUDが,合成データと実世界のデータの両方に関する広範な実験により因果関係を推定する既存手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-03-11T08:11:52Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Causal Representation Learning Made Identifiable by Grouping of Observational Variables [8.157856010838382]
因果表現学習(Causal Representation Learning)は、データ駆動型で隠れた機能の因果モデルを学ぶことを目的としている。
ここでは、新規で弱い制約に基づく識別可能性を示す。
また,モデルに整合した新たな自己教師付き推定フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T10:38:02Z) - Causal Component Analysis [20.570470860880125]
因果成分分析(CauCA)と呼ばれる中間問題を導入する。
CauCAは独立成分分析(ICA)の一般化と見なすことができる
CauCA と ICA 設定における広範囲な合成実験により,その効果を実証した。
論文 参考訳(メタデータ) (2023-05-26T19:34:35Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。