論文の概要: Identifiability of Sparse Causal Effects using Instrumental Variables
- arxiv url: http://arxiv.org/abs/2203.09380v1
- Date: Thu, 17 Mar 2022 15:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 15:58:00.517854
- Title: Identifiability of Sparse Causal Effects using Instrumental Variables
- Title(参考訳): インストゥルメンタル変数を用いたスパース因果効果の同定可能性
- Authors: Niklas Pfister and Jonas Peters
- Abstract要約: 弱条件下では因果係数が識別可能であることが証明され、因果関係の親の数と同じくらい楽器の数が小さいモデルでも特定できる。
推定器として spaceIV を提案し,モデルが同定可能であれば因果効果を常に推定し,その性能をシミュレーションデータ上で評価する。
- 参考スコア(独自算出の注目度): 5.368313160283353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exogenous heterogeneity, for example, in the form of instrumental variables
can help us learn a system's underlying causal structure and predict the
outcome of unseen intervention experiments. In this paper, we consider linear
models in which the causal effect from covariates $X$ on a response $Y$ is
sparse. We prove that the causal coefficient becomes identifiable under weak
conditions and may even be identified in models, where the number of
instruments is as small as the number of causal parents. We also develop
graphical criteria under which the identifiability holds with probability one
if the edge coefficients are sampled randomly from a distribution that is
absolutely continuous with respect to Lebesgue measure. As an estimator, we
propose spaceIV and prove that it consistently estimates the causal effect if
the model is identifiable and evaluate its performance on simulated data.
- Abstract(参考訳): 例えば、器用変数の形で外因性不均一性は、システムの根底にある因果構造を学習し、目に見えない介入実験の結果を予測するのに役立つ。
本稿では,covariates $x$ からの応答 $y$ に対する因果効果がスパースである線形モデルを考える。
弱条件下では因果係数が識別可能であることが証明され、因果関係の親の数と同じくらい楽器の数が小さいモデルでも特定できる。
また、エッジ係数がルベーグ測度に対して絶対連続な分布からランダムにサンプリングされた場合、識別可能性が確率1で保持されるグラフィカルな基準を開発する。
推定器として spaceIV を提案し,モデルが同定可能であれば因果効果を常に推定し,その性能をシミュレーションデータ上で評価する。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Robust Estimation of Causal Heteroscedastic Noise Models [7.568978862189266]
学生の$t$-distributionは、より小さなサンプルサイズと極端な値で、全体の分布形態を著しく変えることなく、サンプル変数をサンプリングすることの堅牢さで知られている。
我々の経験的評価は、我々の推定器はより堅牢で、合成ベンチマークと実ベンチマークの総合的な性能が向上していることを示している。
論文 参考訳(メタデータ) (2023-12-15T02:26:35Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Causal Discovery via Conditional Independence Testing with Proxy Variables [35.3493980628004]
潜伏した共同設立者のような未観測変数の存在は、条件付き独立テストにバイアスをもたらす可能性がある。
本研究では,連続変数に対する因果関係の存在を効果的に検証できる仮説テスト手法を提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:39Z) - Linking a predictive model to causal effect estimation [21.869233469885856]
本稿では、まず、ある事例における結果に対する特徴(治療としての)の因果効果を推定する挑戦に取り組む。
理論的結果は、予測モデルを因果効果推定に自然に関連付け、予測モデルが因果的解釈可能であることを示唆する。
本稿では, 種々の予測モデルを用いて, 条件を満たす場合, 特徴の因果効果を, 最先端の因果効果推定法と同じくらい正確に推定できることを実証する。
論文 参考訳(メタデータ) (2023-04-10T13:08:16Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。