論文の概要: Learning nonparametric latent causal graphs with unknown interventions
- arxiv url: http://arxiv.org/abs/2306.02899v1
- Date: Mon, 5 Jun 2023 14:06:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:44:01.911474
- Title: Learning nonparametric latent causal graphs with unknown interventions
- Title(参考訳): 未知の介入による非パラメトリック潜在因果グラフの学習
- Authors: Yibo Jiang, Bryon Aragam
- Abstract要約: 測定モデルの潜在構造を同定する。
隠れ変数あたりの未知の介入が少なくとも1つ必要であることを示す。
実験では、潜伏グラフがデータから回収可能であることを確認した。
- 参考スコア(独自算出の注目度): 13.77450052906748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We establish conditions under which latent causal graphs are
nonparametrically identifiable and can be reconstructed from unknown
interventions in the latent space. Our primary focus is the identification of
the latent structure in a measurement model, i.e. causal graphical models where
dependence between observed variables is insignificant compared to dependence
between latent representations, without making parametric assumptions such as
linearity or Gaussianity. Moreover, we do not assume the number of hidden
variables is known, and we show that at most one unknown intervention per
hidden variable is needed. This extends a recent line of work on learning
causal representations from observations and interventions. The proofs are
constructive and introduce two new graphical concepts -- imaginary subsets and
isolated edges -- that may be useful in their own right. As a matter of
independent interest, the proofs also involve a novel characterization of the
limits of edge orientations within the equivalence class of DAGs induced by
unknown interventions. Experiments confirm that the latent graph can be
recovered from data using our theoretical results. These are the first results
to characterize the conditions under which causal representations are
identifiable without making any parametric assumptions in a general setting
with unknown interventions and without faithfulness.
- Abstract(参考訳): 潜在因果グラフが非パラメトリック同定可能であり、潜在空間における未知の介入から再構成できる条件を確立する。
我々の主な焦点は測定モデルにおける潜在構造、すなわち観測変数間の依存性が、線形性やガウス性といったパラメトリックな仮定をすることなく、潜在表現間の依存性よりも重要でない因果的グラフィカルモデルである。
さらに,隠れ変数の数が分かっているとは仮定せず,隠れ変数毎に未知の介入が少なくとも1つ必要であることを示す。
これは、観察と介入から因果表現を学ぶ最近の作業のラインを拡張します。
証明は構成的で、想像上のサブセットと孤立したエッジという2つの新しいグラフィカルな概念を導入している。
独立した関心事として、証明は未知の介入によって誘導されるDAGの同値類におけるエッジ配向の限界の新たな特徴も含む。
実験により,データから潜在グラフを復元できることを確認した。
これらは、未知の介入を伴う一般的な条件においてパラメトリックな仮定を行わずに、因果表現が識別可能である条件を特徴づける最初の結果である。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Purely Observational Data [10.482728002416348]
因果解離は、データの背後にある潜在因果関係について学ぶことを目的としている。
近年の進歩は、(単一の)潜伏因子への介入が可能であると仮定して、識別可能性(identifiability)が確立されている。
非線形因果モデルで同定できる潜伏因子の高精度な評価法を提案する。
論文 参考訳(メタデータ) (2024-10-31T04:18:29Z) - Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity [27.630223763160515]
一般的な環境から得られたデータに基づいて,最初の識別可能性を示す。
線形因果モデルでは、因果グラフは完全復元可能であるが、潜伏変数は閉ノード曖昧性(SNA)までしか識別できないことを示す。
また,SNAまでの地下構造モデルを確実に復元するアルゴリズムである texttLiNGCReL を提案する。
論文 参考訳(メタデータ) (2023-11-21T01:09:11Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Identification of Nonlinear Latent Hierarchical Models [38.925635086396596]
我々は,初等潜伏変数モデルに対する新しい識別可能性保証という形で識別基準を開発する。
我々の知る限りでは、非線形潜在階層モデルにおける因果構造と潜伏変数の両方に対する識別可能性を保証するための最初の研究である。
論文 参考訳(メタデータ) (2023-06-13T17:19:37Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。