論文の概要: BayesDAG: Gradient-Based Posterior Inference for Causal Discovery
- arxiv url: http://arxiv.org/abs/2307.13917v2
- Date: Fri, 8 Dec 2023 15:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 18:39:27.938256
- Title: BayesDAG: Gradient-Based Posterior Inference for Causal Discovery
- Title(参考訳): BayesDAG: 因果発見のための勾配に基づく後部推論
- Authors: Yashas Annadani, Nick Pawlowski, Joel Jennings, Stefan Bauer, Cheng
Zhang, Wenbo Gong
- Abstract要約: マルコフ・チェイン・モンテカルロと変分推論を組み合わせたスケーラブルな因果探索フレームワークを提案する。
本手法では,DAG正則化を必要とせず,直接後部からDAGを採取する。
我々は、置換に基づくDAG学習に新しい等価性をもたらし、置換によって定義された緩和された推定器を使用する可能性を開く。
- 参考スコア(独自算出の注目度): 30.027520859604955
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bayesian causal discovery aims to infer the posterior distribution over
causal models from observed data, quantifying epistemic uncertainty and
benefiting downstream tasks. However, computational challenges arise due to
joint inference over combinatorial space of Directed Acyclic Graphs (DAGs) and
nonlinear functions. Despite recent progress towards efficient posterior
inference over DAGs, existing methods are either limited to variational
inference on node permutation matrices for linear causal models, leading to
compromised inference accuracy, or continuous relaxation of adjacency matrices
constrained by a DAG regularizer, which cannot ensure resulting graphs are
DAGs. In this work, we introduce a scalable Bayesian causal discovery framework
based on a combination of stochastic gradient Markov Chain Monte Carlo
(SG-MCMC) and Variational Inference (VI) that overcomes these limitations. Our
approach directly samples DAGs from the posterior without requiring any DAG
regularization, simultaneously draws function parameter samples and is
applicable to both linear and nonlinear causal models. To enable our approach,
we derive a novel equivalence to the permutation-based DAG learning, which
opens up possibilities of using any relaxed gradient estimator defined over
permutations. To our knowledge, this is the first framework applying
gradient-based MCMC sampling for causal discovery. Empirical evaluation on
synthetic and real-world datasets demonstrate our approach's effectiveness
compared to state-of-the-art baselines.
- Abstract(参考訳): Bayesian causal discoveryは、観測されたデータから因果モデルの後方分布を推定し、疫学的な不確実性を定量化し、下流のタスクに利益をもたらすことを目的としている。
しかし、DAG(Directed Acyclic Graphs)と非線形関数の組合せ空間に対する共同推論によって計算上の問題が発生する。
DAGに対する効率的な後部推論への最近の進歩にもかかわらず、既存の手法は線形因果モデルに対するノード置換行列の変分推論に制限され、妥協された推論精度、DAG正規化器によって制約された隣接行列の連続緩和が導かれる。
本研究では,確率勾配マルコフ・チェイン・モンテカルロ (SG-MCMC) と変分推論 (VI) を組み合わせて,これらの制約を克服したスケーラブルなベイズ因果発見フレームワークを提案する。
本手法では,DAG正則化を必要とせずに後方からDAGを直接サンプリングし,同時に関数パラメータのサンプルを抽出し,線形因果モデルと非線形因果モデルの両方に適用する。
提案手法を実現するために,置換に基づくDAG学習と新しい等価性を導出し,置換上に定義された緩和勾配推定器の使用可能性を高める。
我々の知る限り、これは勾配に基づくMCMCサンプリングを因果発見に適用した最初のフレームワークである。
合成および実世界のデータセットに関する実証評価は、最先端のベースラインと比較して、我々のアプローチの有効性を示している。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Scalable Variational Causal Discovery Unconstrained by Acyclicity [6.954510776782872]
観測データから得られた因果グラフ上の後部分布を学習するために,スケーラブルなベイズ的手法を提案する。
有効な非巡回因果グラフを生成することができる新しい微分可能なDAGサンプリング手法を提案する。
連続領域上の単純な変分分布を用いて因果グラフ上の後部分布をモデル化することができる。
論文 参考訳(メタデータ) (2024-07-06T07:56:23Z) - ProDAG: Projection-Induced Variational Inference for Directed Acyclic Graphs [8.556906995059324]
直接非巡回グラフ(DAG)学習は急速に研究の領域を広げている。
データから単一の(点推定)DAGを学習することは統計的かつ計算的に困難であり、もちろん不確実な定量化を提供する。
本稿では,DAGの空間を直接支援する新しい分布に基づくベイズ変分推論フレームワークを開発することで,グラフの不確かさを定量化する難しい課題について論じる。
論文 参考訳(メタデータ) (2024-05-24T03:04:28Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse
Problems with Denoising Diffusion Restoration [64.8770356696056]
本稿では,DDRM(Denoising Diffusion Restoration Models)の拡張であるGibbsDDRMを提案する。
提案手法は問題に依存しないため,様々な逆問題に対して事前学習した拡散モデルを適用することができる。
論文 参考訳(メタデータ) (2023-01-30T06:27:48Z) - Causal Graph Discovery from Self and Mutually Exciting Time Series [10.410454851418548]
我々は,線形プログラムを解くことによって,非漸近的回復保証と定量的不確実性を開発する。
Sepsis Associated Derangements (SAD) による高度に解釈可能な因果DAGの回復におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-01-26T16:15:27Z) - MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models [78.72682320019737]
不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
論文 参考訳(メタデータ) (2022-05-27T09:59:46Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Causal Graph Discovery from Self and Mutually Exciting Time Series [12.802653884445132]
我々は,線形プログラムを解くことによって,非漸近的回復保証と定量的不確実性を開発する。
Sepsis Associated Derangements (SAD) による高度に解釈可能な因果DAGの回復におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-04T16:59:24Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。