論文の概要: Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity
- arxiv url: http://arxiv.org/abs/2311.12267v2
- Date: Sat, 3 Feb 2024 06:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 04:07:40.877186
- Title: Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity
- Title(参考訳): 一般環境からの因果表現の学習:識別可能性と内在的曖昧性
- Authors: Jikai Jin and Vasilis Syrgkanis
- Abstract要約: 一般的な環境から得られたデータに基づいて,最初の識別可能性を示す。
線形因果モデルでは、因果グラフは完全復元可能であるが、潜伏変数は閉ノード曖昧性(SNA)までしか識別できないことを示す。
また,SNAまでの地下構造モデルを確実に復元するアルゴリズムである texttLiNGCReL を提案する。
- 参考スコア(独自算出の注目度): 27.630223763160515
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We study causal representation learning, the task of recovering high-level
latent variables and their causal relationships in the form of a causal graph
from low-level observed data (such as text and images), assuming access to
observations generated from multiple environments. Prior results on the
identifiability of causal representations typically assume access to
single-node interventions which is rather unrealistic in practice, since the
latent variables are unknown in the first place. In this work, we provide the
first identifiability results based on data that stem from general
environments. We show that for linear causal models, while the causal graph can
be fully recovered, the latent variables are only identified up to the
surrounded-node ambiguity (SNA) \citep{varici2023score}. We provide a
counterpart of our guarantee, showing that SNA is basically unavoidable in our
setting. We also propose an algorithm, \texttt{LiNGCReL} which provably
recovers the ground-truth model up to SNA, and we demonstrate its effectiveness
via numerical experiments. Finally, we consider general non-parametric causal
models and show that the same identification barrier holds when assuming access
to groups of soft single-node interventions.
- Abstract(参考訳): 本研究では,複数の環境から発生する観測データへのアクセスを想定し,因果関係を低レベル観測データ(テキストや画像など)から因果関係の形で復元する因果表現学習について検討する。
因果表現の識別可能性に関する先行の結果は、通常、潜在変数がそもそも不明であるため、実際には現実的ではない単ノード介入へのアクセスを想定している。
本研究では,一般的な環境から得られるデータに基づいて,最初の識別可能性を示す。
線形因果モデルでは、因果グラフが完全に回復できるが、潜在変数は囲まれたノード曖昧性 (sna) \citep{varici2023score} によってのみ同定される。
私たちは、SNAが基本的に私たちの設定では避けられないことを示す保証の相手を提供します。
また,SNAまでの地下構造モデルを良好に復元するアルゴリズムである \texttt{LiNGCReL} を提案し,数値実験によりその有効性を実証する。
最後に, 一般的な非パラメトリック因果モデルを検討し, ソフトな単ノード介入群へのアクセスを仮定すると, 同じ識別障壁が成立することを示す。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - A Versatile Causal Discovery Framework to Allow Causally-Related Hidden
Variables [28.51579090194802]
因果ネットワークの至る所で、因果関係の隠れ変数の存在を許容する因果発見のための新しい枠組みを提案する。
ランクに基づく潜在因果探索アルゴリズム(RLCD)を開発し、隠れ変数を効率よく探索し、その濃度を判定し、測定値と隠れ変数の両方に対して因果構造全体を発見する。
合成・実世界のパーソナリティデータセットを用いた実験結果から,有限サンプルケースにおける提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-12-18T07:57:39Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。