論文の概要: DeCaFlow: A Deconfounding Causal Generative Model
- arxiv url: http://arxiv.org/abs/2503.15114v2
- Date: Sat, 24 May 2025 12:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:53.838633
- Title: DeCaFlow: A Deconfounding Causal Generative Model
- Title(参考訳): DeCaFlow: 分離された因果生成モデル
- Authors: Alejandro Almodóvar, Adrián Javaloy, Juan Parras, Santiago Zazo, Isabel Valera,
- Abstract要約: 本稿では,分解因果生成モデルであるDeCaFlowを紹介する。
DeCaFlowの単一インスタンスがdo-calculusで識別可能なすべての因果クエリに対して正しい推定値を提供することを示す。
多様な設定に関する実証的な結果は、DeCaFlowが既存のアプローチよりも優れており、任意の因果グラフに適用可能であることを示している。
- 参考スコア(独自算出の注目度): 58.411886466157185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce DeCaFlow, a deconfounding causal generative model. Training once per dataset using just observational data and the underlying causal graph, DeCaFlow enables accurate causal inference on continuous variables under the presence of hidden confounders. Specifically, we extend previous results on causal estimation under hidden confounding to show that a single instance of DeCaFlow provides correct estimates for all causal queries identifiable with do-calculus, leveraging proxy variables to adjust for the causal effects when do-calculus alone is insufficient. Moreover, we show that counterfactual queries are identifiable as long as their interventional counterparts are identifiable, and thus are also correctly estimated by DeCaFlow. Our empirical results on diverse settings (including the Ecoli70 dataset, with 3 independent hidden confounders, tens of observed variables and hundreds of causal queries) show that DeCaFlow outperforms existing approaches, while demonstrating its out-of-the-box applicability to any given causal graph. An implementation can be found in https://github.com/aalmodovares/DeCaFlow
- Abstract(参考訳): 本稿では,分解因果生成モデルであるDeCaFlowを紹介する。
DeCaFlowは、観測データと基礎となる因果グラフを使用してデータセット毎に一度トレーニングすることで、隠れた共同創設者の存在下で、継続的な変数に対する正確な因果推論を可能にする。
具体的には,DeCaFlowの単一インスタンスがdo-calculusで識別可能なすべての因果クエリに対して正しい推定を提供し,do-calculusだけでは因果効果の調整にプロキシ変数を利用することを示す。
さらに, 干渉クエリが識別可能である限り, 反事実クエリが識別可能であることを示し, また, DeCaFlowによって正確に推定されることを示す。
さまざまな設定(Ecoli70データセット、独立した3人の共同設立者、数十の変数、数百の因果クエリを含む)に関する実証的な結果は、DeCaFlowが既存のアプローチよりも優れており、任意の因果グラフに適用可能であることを示している。
実装はhttps://github.com/aalmodovares/DeCaFlowにある。
関連論文リスト
- Detection of Unobserved Common Causes based on NML Code in Discrete,
Mixed, and Continuous Variables [1.5039745292757667]
2つの確率変数間の因果関係を次の4つのカテゴリに分類する。
我々は,CLOUDが,合成データと実世界のデータの両方に関する広範な実験により因果関係を推定する既存手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-03-11T08:11:52Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
因果発見は、生物学的実験から機械的な洞察を明らかにする可能性がある。
因果グラフを予測するために,大規模合成データに基づいて学習した教師付きモデルを提案する。
我々のアプローチは、発見アルゴリズムの出力の典型的なエラーがデータセット間で比較できるという観察によって実現されている。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Causal Representation Learning Made Identifiable by Grouping of Observational Variables [8.157856010838382]
因果表現学習(Causal Representation Learning)は、データ駆動型で隠れた機能の因果モデルを学ぶことを目的としている。
ここでは、新規で弱い制約に基づく識別可能性を示す。
また,モデルに整合した新たな自己教師付き推定フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T10:38:02Z) - Causal Component Analysis [20.570470860880125]
因果成分分析(CauCA)と呼ばれる中間問題を導入する。
CauCAは独立成分分析(ICA)の一般化と見なすことができる
CauCA と ICA 設定における広範囲な合成実験により,その効果を実証した。
論文 参考訳(メタデータ) (2023-05-26T19:34:35Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。