論文の概要: Interventional Causal Representation Learning
- arxiv url: http://arxiv.org/abs/2209.11924v1
- Date: Sat, 24 Sep 2022 04:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:46:50.235646
- Title: Interventional Causal Representation Learning
- Title(参考訳): 介入的因果表現学習
- Authors: Kartik Ahuja, Yixin Wang, Divyat Mahajan, Yoshua Bengio
- Abstract要約: 介入データと非干渉データによる潜伏因果関係因子の識別可能性について検討した。
実潜伏変数が知覚関数を介して観測された高次元データにマップされると、オートエンコーダによる表現学習はアフィン変換までの真の潜伏変数を識別する。
- 参考スコア(独自算出の注目度): 92.04545716937656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The theory of identifiable representation learning aims to build
general-purpose methods that extract high-level latent (causal) factors from
low-level sensory data. Most existing works focus on identifiable
representation learning with observational data, relying on distributional
assumptions on latent (causal) factors. However, in practice, we often also
have access to interventional data for representation learning. How can we
leverage interventional data to help identify high-level latents? To this end,
we explore the role of interventional data for identifiable representation
learning in this work. We study the identifiability of latent causal factors
with and without interventional data, under minimal distributional assumptions
on the latents. We prove that, if the true latent variables map to the observed
high-dimensional data via a polynomial function, then representation learning
via minimizing the standard reconstruction loss of autoencoders identifies the
true latents up to affine transformation. If we further have access to
interventional data generated by hard $do$ interventions on some of the
latents, then we can identify these intervened latents up to permutation, shift
and scaling.
- Abstract(参考訳): 識別可能な表現学習の理論は、低レベル感覚データから高レベル潜在性(causal)因子を抽出する汎用的手法を構築することを目的としている。
既存の研究の多くは、潜在的(因果的)因子の分布的仮定に依存する観察データによる識別可能な表現学習に焦点を当てている。
しかし、実際には、表現学習のための介入データへのアクセスもしばしば行われている。
介入データを利用してハイレベルな潜伏者を特定するには?
この目的のために,本研究における表現学習における介入データの役割について検討する。
本研究は,潜伏者の分布的仮定を最小に抑えながら,介入データの有無と潜伏因果要因の同定可能性について検討した。
実潜時変数が多項式関数を介して観測された高次元データにマップされると、オートエンコーダの標準再構成損失を最小化して表現学習を行い、真の潜時変数をアフィン変換まで同定する。
もし私たちが、一部の潜伏者に対するハード$do$の介入によって生成された介入データにさらにアクセスできれば、置換、シフト、スケーリングまで、これらの介入された潜伏者を特定することができます。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Purely Observational Data [10.482728002416348]
因果解離は、データの背後にある潜在因果関係について学ぶことを目的としている。
近年の進歩は、(単一の)潜伏因子への介入が可能であると仮定して、識別可能性(identifiability)が確立されている。
非線形因果モデルで同定できる潜伏因子の高精度な評価法を提案する。
論文 参考訳(メタデータ) (2024-10-31T04:18:29Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。