論文の概要: Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity
- arxiv url: http://arxiv.org/abs/2311.12267v1
- Date: Tue, 21 Nov 2023 01:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 02:32:38.542500
- Title: Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity
- Title(参考訳): 一般環境からの因果表現の学習:識別可能性と内在的曖昧性
- Authors: Jikai Jin and Vasilis Syrgkanis
- Abstract要約: 本稿では、因果表現学習、高レベル潜伏変数の復元作業、低レベルデータからの因果関係について検討する。
既存の作業は、基盤となるデータ生成プロセスの完全な識別性を証明することができるが、通常は単一ノード、ハード介入へのアクセスを前提としている。
本論文の主な貢献は,ハード介入ができない場合に達成できる最高の識別可能性の概念を特徴づけることである。
- 参考スコア(独自算出の注目度): 27.630223763160515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies causal representation learning, the task of recovering
high-level latent variables and their causal relationships from low-level data
that we observe, assuming access to observations generated from multiple
environments. While existing works are able to prove full identifiability of
the underlying data generating process, they typically assume access to
single-node, hard interventions which is rather unrealistic in practice. The
main contribution of this paper is characterize a notion of identifiability
which is provably the best one can achieve when hard interventions are not
available. First, for linear causal models, we provide identifiability
guarantee for data observed from general environments without assuming any
similarities between them. While the causal graph is shown to be fully
recovered, the latent variables are only identified up to an effect-domination
ambiguity (EDA). We then propose an algorithm, LiNGCReL which is guaranteed to
recover the ground-truth model up to EDA, and we demonstrate its effectiveness
via numerical experiments. Moving on to general non-parametric causal models,
we prove the same idenfifiability guarantee assuming access to groups of soft
interventions. Finally, we provide counterparts of our identifiability results,
indicating that EDA is basically inevitable in our setting.
- Abstract(参考訳): 本稿では,複数の環境から発生する観測へのアクセスを前提とした因果表現学習,高レベルの潜伏変数の復元作業,および観測する低レベルのデータからの因果関係について検討する。
既存の研究は、基盤となるデータ生成プロセスの完全な識別可能性を証明することができるが、通常は単一ノードへのアクセスを前提としている。
本論文の主な貢献は,ハード介入が得られない場合に達成可能な最善の識別可能性の概念を特徴付けることである。
まず,線形因果モデルに対して,一般環境から観測されたデータに対して,それらの類似性を仮定することなく識別可能性を保証する。
因果グラフは完全回復することが示されているが、潜伏変数は効果支配曖昧性(EDA)までしか識別されない。
次に,基礎構造モデルをEDAまで復元することが保証されるアルゴリズムLiNGCReLを提案し,数値実験によりその効果を実証する。
一般的な非パラメトリック因果モデルへと進み、ソフト介入の群へのアクセスを前提とした同一のイデフィラビリティ保証が証明される。
最後に、EDAは基本的に我々の設定では避けられないものであることを示す。
関連論文リスト
- Score matching through the roof: linear, nonlinear, and latent variables causal discovery [18.46845413928147]
観測データからの因果発見は、非常に有望である。
既存の手法は根底にある因果構造に関する強い仮定に依存している。
線形・非線形・潜在変数モデルにまたがる因果探索のためのフレキシブルアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:09:06Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - A Versatile Causal Discovery Framework to Allow Causally-Related Hidden
Variables [28.51579090194802]
因果ネットワークの至る所で、因果関係の隠れ変数の存在を許容する因果発見のための新しい枠組みを提案する。
ランクに基づく潜在因果探索アルゴリズム(RLCD)を開発し、隠れ変数を効率よく探索し、その濃度を判定し、測定値と隠れ変数の両方に対して因果構造全体を発見する。
合成・実世界のパーソナリティデータセットを用いた実験結果から,有限サンプルケースにおける提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-12-18T07:57:39Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。