論文の概要: Estimating Causal Effects with the Neural Autoregressive Density
Estimator
- arxiv url: http://arxiv.org/abs/2008.07283v2
- Date: Mon, 1 Mar 2021 13:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 02:49:48.339660
- Title: Estimating Causal Effects with the Neural Autoregressive Density
Estimator
- Title(参考訳): 神経自己回帰密度推定器による因果効果の推定
- Authors: Sergio Garrido, Stanislav S. Borysov, Jeppe Rich, Francisco C. Pereira
- Abstract要約: 我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
- 参考スコア(独自算出の注目度): 6.59529078336196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimation of causal effects is fundamental in situations were the underlying
system will be subject to active interventions. Part of building a causal
inference engine is defining how variables relate to each other, that is,
defining the functional relationship between variables given conditional
dependencies. In this paper, we deviate from the common assumption of linear
relationships in causal models by making use of neural autoregressive density
estimators and use them to estimate causal effects within the Pearl's
do-calculus framework. Using synthetic data, we show that the approach can
retrieve causal effects from non-linear systems without explicitly modeling the
interactions between the variables.
- Abstract(参考訳): 基礎となるシステムが積極的に介入される状況において、因果効果の推定は基本的なものである。
因果推論エンジンを構築する部分的には、変数が互いにどう関係しているかを定義すること、すなわち条件付き依存関係が与えられた変数間の機能的関係を定義することである。
本稿では,神経自己回帰的密度推定器を用いて因果モデルにおける線形関係の一般的な仮定から逸脱し,真珠のdo-calculusフレームワークにおける因果効果を推定する。
合成データを用いて,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
関連論文リスト
- Do Finetti: On Causal Effects for Exchangeable Data [45.96632286841583]
データをi.i.d.に含まない環境での因果効果の推定について検討する。
我々は、独立因果関係の仮定を満たす交換可能なデータに焦点を当てる。
論文 参考訳(メタデータ) (2024-05-29T07:31:18Z) - Challenges in Variable Importance Ranking Under Correlation [6.718144470265263]
本稿では,特徴相関が変数重要度評価に与える影響を総合シミュレーションで検討する。
ノックオフ変数と対応する予測変数の間には相関関係は常に存在しないが、相関関係が予測変数間の特定の相関しきい値を超えて線形に増加することを証明している。
論文 参考訳(メタデータ) (2024-02-05T19:02:13Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。