論文の概要: Nonparametric Identifiability of Causal Representations from Unknown
Interventions
- arxiv url: http://arxiv.org/abs/2306.00542v2
- Date: Sat, 28 Oct 2023 11:54:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 21:36:09.314448
- Title: Nonparametric Identifiability of Causal Representations from Unknown
Interventions
- Title(参考訳): 未知の介入による因果表現の非パラメトリック識別性
- Authors: Julius von K\"ugelgen, Michel Besserve, Liang Wendong, Luigi Gresele,
Armin Keki\'c, Elias Bareinboim, David M. Blei, Bernhard Sch\"olkopf
- Abstract要約: 本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
- 参考スコア(独自算出の注目度): 63.1354734978244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study causal representation learning, the task of inferring latent causal
variables and their causal relations from high-dimensional mixtures of the
variables. Prior work relies on weak supervision, in the form of counterfactual
pre- and post-intervention views or temporal structure; places restrictive
assumptions, such as linearity, on the mixing function or latent causal model;
or requires partial knowledge of the generative process, such as the causal
graph or intervention targets. We instead consider the general setting in which
both the causal model and the mixing function are nonparametric. The learning
signal takes the form of multiple datasets, or environments, arising from
unknown interventions in the underlying causal model. Our goal is to identify
both the ground truth latents and their causal graph up to a set of ambiguities
which we show to be irresolvable from interventional data. We study the
fundamental setting of two causal variables and prove that the observational
distribution and one perfect intervention per node suffice for identifiability,
subject to a genericity condition. This condition rules out spurious solutions
that involve fine-tuning of the intervened and observational distributions,
mirroring similar conditions for nonlinear cause-effect inference. For an
arbitrary number of variables, we show that at least one pair of distinct
perfect interventional domains per node guarantees identifiability. Further, we
demonstrate that the strengths of causal influences among the latent variables
are preserved by all equivalent solutions, rendering the inferred
representation appropriate for drawing causal conclusions from new data. Our
study provides the first identifiability results for the general nonparametric
setting with unknown interventions, and elucidates what is possible and
impossible for causal representation learning without more direct supervision.
- Abstract(参考訳): 本研究では,潜伏因果変数を推定する因果表現学習とその高次元混合による因果関係について検討する。
先行研究は、反事実的前・後的見解または時間的構造という形で、弱い監督に依存し、線形性のような制限的な仮定は混合関数や潜在因果モデルに依存するか、因果グラフや介入対象のような生成過程の部分的な知識を必要とする。
代わりに、因果モデルと混合関数の両方が非パラメトリックである一般的な設定を考える。
学習信号は、基礎となる因果モデルにおける未知の介入から生じる複数のデータセットや環境の形を取る。
我々の目標は、基礎的真理の潜在者とそれらの因果グラフの両方を、介入データから不可解であることを示す一連の曖昧さまで識別することである。
本研究では,2つの因果変数の基本的な設定について検討し,各ノード毎の観測分布と1つの完全介入が,汎用性条件に従うことを証明する。
この条件は、干渉分布と観測分布の微調整を伴うスプリアス解を除外し、非線形因果効果推論に類似した条件を反映する。
任意の数の変数に対して、ノードごとに少なくとも1組の異なる完全介入ドメインが識別可能性を保証することを示す。
さらに,潜在変数間の因果影響の強みは,すべての等価解によって保存され,推論された表現が新たなデータから因果的結論を導き出すのに適していることを示す。
本研究は、未知の介入による一般的な非パラメトリック設定に対する最初の識別可能性結果を提供し、より直接的な監督を伴わずに因果表現学習の可能性と不可能性を解明する。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Purely Observational Data [10.482728002416348]
因果解離は、データの背後にある潜在因果関係について学ぶことを目的としている。
近年の進歩は、(単一の)潜伏因子への介入が可能であると仮定して、識別可能性(identifiability)が確立されている。
非線形因果モデルで同定できる潜伏因子の高精度な評価法を提案する。
論文 参考訳(メタデータ) (2024-10-31T04:18:29Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - A Sparsity Principle for Partially Observable Causal Representation Learning [28.25303444099773]
因果表現学習は、知覚データから高レベルの因果変数を特定することを目的としている。
我々は、インスタンスに依存した部分的可観測パターンを持つデータセットから、未確認の観測から学ぶことに集中する。
提案手法は,推定された表現の間隔を小さくすることで,基礎となる因果変数を推定する2つの手法である。
論文 参考訳(メタデータ) (2024-03-13T08:40:49Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Learning nonparametric latent causal graphs with unknown interventions [18.6470340274888]
潜在因果グラフが非パラメトリック同定可能な条件を確立する。
隠れ変数の数は分かっていないと仮定し、隠された変数に対して少なくとも1つの未知の介入が必要であることを示す。
論文 参考訳(メタデータ) (2023-06-05T14:06:35Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。