論文の概要: MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models
- arxiv url: http://arxiv.org/abs/2205.13869v1
- Date: Fri, 27 May 2022 09:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 13:35:03.797195
- Title: MissDAG: Causal Discovery in the Presence of Missing Data with
Continuous Additive Noise Models
- Title(参考訳): missdag:連続付加雑音モデルを用いた欠落データの存在下での因果発見
- Authors: Erdun Gao, Ignavier Ng, Mingming Gong, Li Shen, Wei Huang, Tongliang
Liu, Kun Zhang, Howard Bondell
- Abstract要約: 不完全な観測データから因果発見を行うため,MissDAGと呼ばれる一般的な手法を開発した。
MissDAGは、期待-最大化の枠組みの下で観測の可視部分の期待される可能性を最大化する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
- 参考スコア(独自算出の注目度): 78.72682320019737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art causal discovery methods usually assume that the
observational data is complete. However, the missing data problem is pervasive
in many practical scenarios such as clinical trials, economics, and biology.
One straightforward way to address the missing data problem is first to impute
the data using off-the-shelf imputation methods and then apply existing causal
discovery methods. However, such a two-step method may suffer from
suboptimality, as the imputation algorithm is unaware of the causal discovery
step. In this paper, we develop a general method, which we call MissDAG, to
perform causal discovery from data with incomplete observations. Focusing
mainly on the assumptions of ignorable missingness and the identifiable
additive noise models (ANMs), MissDAG maximizes the expected likelihood of the
visible part of observations under the expectation-maximization (EM) framework.
In the E-step, in cases where computing the posterior distributions of
parameters in closed-form is not feasible, Monte Carlo EM is leveraged to
approximate the likelihood. In the M-step, MissDAG leverages the density
transformation to model the noise distributions with simpler and specific
formulations by virtue of the ANMs and uses a likelihood-based causal discovery
algorithm with directed acyclic graph prior as an inductive bias. We
demonstrate the flexibility of MissDAG for incorporating various causal
discovery algorithms and its efficacy through extensive simulations and real
data experiments.
- Abstract(参考訳): 最先端の因果発見法は通常、観測データが完了したと仮定する。
しかし、欠落したデータ問題は、臨床試験、経済学、生物学など多くの実践的なシナリオで広く利用されている。
欠落したデータに対処する簡単な方法の1つは、まずオフザシェルフ計算法を用いてデータをインプットし、次に既存の因果発見法を適用することである。
しかし、このような二段階法では因果発見のステップを知らずにインプテーションアルゴリズムが認識できないため、最適化に支障をきたすことがある。
本論文では,不完全な観測データから因果発見を行うための一般手法であるMissDAGを開発した。
主に、無知の欠如と同定可能な付加雑音モデル(ANMs)の仮定に焦点を当て、MissDAGは、期待最大化(EM)フレームワークの下で観測される観察の可視部分の可能性を最大化する。
Eステップでは、閉形式のパラメータの後方分布の計算が不可能な場合、モンテカルロEMを利用して確率を近似する。
M-ステップでは、MissDAGは密度変換を利用して、ANMによるより単純で特異的な定式化でノイズ分布をモデル化し、誘導バイアスとして、有向非巡回グラフを持つ確率ベースの因果探索アルゴリズムを使用する。
各種因果探索アルゴリズムを組み込んだMissDAGの柔軟性について,広範囲なシミュレーションと実データ実験により検証した。
関連論文リスト
- Efficient Prior Calibration From Indirect Data [5.588334720483076]
本稿では,データから先行モデルを学習すること,特にノイズ観測プロセスを通じて得られた間接データの多元的実現から先行モデルを学習することに関心がある。
フォワードモデルの効率的な残差ベースニューラル演算子近似を提案し,これをプッシュフォワードマップと同時学習できることを示した。
論文 参考訳(メタデータ) (2024-05-28T08:34:41Z) - BayesDAG: Gradient-Based Posterior Inference for Causal Discovery [30.027520859604955]
マルコフ・チェイン・モンテカルロと変分推論を組み合わせたスケーラブルな因果探索フレームワークを提案する。
本手法では,DAG正則化を必要とせず,直接後部からDAGを採取する。
我々は、置換に基づくDAG学習に新しい等価性をもたらし、置換によって定義された緩和された推定器を使用する可能性を開く。
論文 参考訳(メタデータ) (2023-07-26T02:34:13Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - Provable RL with Exogenous Distractors via Multistep Inverse Dynamics [85.52408288789164]
実世界の強化学習(RL)の応用は、メガピクセルカメラから生成されたような高次元の観察にエージェントが対処する必要がある。
従来の研究は表現学習でこのような問題に対処しており、エージェントは生の観察から内因性、潜伏状態の情報を確実に抽出することができる。
しかし、このような手法は観測において時間的に相関するノイズの存在下では失敗する可能性がある。
論文 参考訳(メタデータ) (2021-10-17T15:21:27Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Information-Theoretic Approximation to Causal Models [0.0]
有限標本から2つの確率変数間の因果方向と因果効果を推定する問題の解法が可能であることを示す。
X と Y のサンプルから生じる分布を高次元確率空間に埋め込む。
本稿では, 線形最適化問題を解くことにより, 因果モデル(IACM)に対する情報理論近似が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T18:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。