論文の概要: Learning Latent Structural Causal Models
- arxiv url: http://arxiv.org/abs/2210.13583v1
- Date: Mon, 24 Oct 2022 20:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:03:17.902954
- Title: Learning Latent Structural Causal Models
- Title(参考訳): 潜在構造因果モデルを学ぶ
- Authors: Jithendaraa Subramanian, Yashas Annadani, Ivaxi Sheth, Nan Rosemary
Ke, Tristan Deleu, Stefan Bauer, Derek Nowrouzezahrai, Samira Ebrahimi Kahou
- Abstract要約: 機械学習タスクでは、画像ピクセルや高次元ベクトルのような低レベルのデータを扱うことが多い。
本稿では,潜在構造因果モデルの因果変数,構造,パラメータについて共同推論を行う,抽出可能な近似推定手法を提案する。
- 参考スコア(独自算出の注目度): 31.686049664958457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal learning has long concerned itself with the accurate recovery of
underlying causal mechanisms. Such causal modelling enables better explanations
of out-of-distribution data. Prior works on causal learning assume that the
high-level causal variables are given. However, in machine learning tasks, one
often operates on low-level data like image pixels or high-dimensional vectors.
In such settings, the entire Structural Causal Model (SCM) -- structure,
parameters, \textit{and} high-level causal variables -- is unobserved and needs
to be learnt from low-level data. We treat this problem as Bayesian inference
of the latent SCM, given low-level data. For linear Gaussian additive noise
SCMs, we present a tractable approximate inference method which performs joint
inference over the causal variables, structure and parameters of the latent SCM
from random, known interventions. Experiments are performed on synthetic
datasets and a causally generated image dataset to demonstrate the efficacy of
our approach. We also perform image generation from unseen interventions,
thereby verifying out of distribution generalization for the proposed causal
model.
- Abstract(参考訳): 因果学習は、基礎となる因果メカニズムの正確な回復に長い間関わってきた。
このような因果モデリングは、分散データのより良い説明を可能にする。
因果学習における先行研究は、高レベル因果変数が与えられると仮定する。
しかし、機械学習タスクでは、画像ピクセルや高次元ベクトルのような低レベルのデータを扱うことが多い。
このような設定では、構造因果モデル(Structure Causal Model, SCM) -- 構造、パラメータ、 \textit{and} 高レベルの因果変数 -- は観測されず、低レベルのデータから学ぶ必要がある。
我々はこの問題を,低レベルデータを与えられた潜在SCMのベイズ推定として扱う。
線形ガウス加算雑音scmに対して, 未知の既知の介入による潜在scmの因果変数, 構造, パラメータの同時推論を行う, 扱いやすい近似推定法を提案する。
提案手法の有効性を示すために, 合成データセットと因果生成画像データセットを用いて実験を行った。
また,未発見の介入による画像生成を行い,提案する因果モデルの分布一般化の検証を行う。
関連論文リスト
- Effective Bayesian Causal Inference via Structural Marginalisation and Autoregressive Orders [16.682775063684907]
構造学習問題を因果順序と各変数に対する因果順序を推定する親集合に分解する。
提案手法は, スケールフリーおよびエルドス・レーニグラフ構造を持つ非線形付加雑音ベンチマークのシミュレーションによる構造学習における最先端の手法である。
論文 参考訳(メタデータ) (2024-02-22T18:39:24Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - Latent Variable Models for Bayesian Causal Discovery [29.963841449400768]
素早い相関に頼らない予測器の学習には因果表現を構築する必要がある。
この研究はベイズ発見のためのデコーダモデルであるデコーダを導入し、軽度に教師なしおよび教師なしの設定で実験を行う。
論文 参考訳(メタデータ) (2022-07-12T17:42:04Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Diffusion Causal Models for Counterfactual Estimation [18.438307666925425]
本稿では,観測画像データから因果構造を推定する作業について考察する。
Diff-SCMは,近年の発電エネルギーモデルの発展を基盤とした構造因果モデルである。
Diff-SCMはMNISTデータに基づくベースラインよりも現実的で最小限のデファクトアルを生成しており、ImageNetデータにも適用可能である。
論文 参考訳(メタデータ) (2022-02-21T12:23:01Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。