論文の概要: Interventional Causal Representation Learning
- arxiv url: http://arxiv.org/abs/2209.11924v4
- Date: Thu, 22 Feb 2024 21:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:57:52.916298
- Title: Interventional Causal Representation Learning
- Title(参考訳): 介入的因果表現学習
- Authors: Kartik Ahuja, Divyat Mahajan, Yixin Wang, Yoshua Bengio
- Abstract要約: 因果表現学習は、低レベルの感覚データから高レベルの潜伏因子を抽出しようとする。
介入データは因果表現学習を促進するか?
介入データは、しばしば潜伏因子の支援の幾何学的シグネチャを持つことを示す。
- 参考スコア(独自算出の注目度): 75.18055152115586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal representation learning seeks to extract high-level latent factors
from low-level sensory data. Most existing methods rely on observational data
and structural assumptions (e.g., conditional independence) to identify the
latent factors. However, interventional data is prevalent across applications.
Can interventional data facilitate causal representation learning? We explore
this question in this paper. The key observation is that interventional data
often carries geometric signatures of the latent factors' support (i.e. what
values each latent can possibly take). For example, when the latent factors are
causally connected, interventions can break the dependency between the
intervened latents' support and their ancestors'. Leveraging this fact, we
prove that the latent causal factors can be identified up to permutation and
scaling given data from perfect $do$ interventions. Moreover, we can achieve
block affine identification, namely the estimated latent factors are only
entangled with a few other latents if we have access to data from imperfect
interventions. These results highlight the unique power of interventional data
in causal representation learning; they can enable provable identification of
latent factors without any assumptions about their distributions or dependency
structure.
- Abstract(参考訳): 因果表現学習は低レベルの感覚データから高レベルの潜伏因子を抽出しようとする。
既存の手法のほとんどは観測データと構造的仮定(条件付き独立性など)に依存して潜在因子を同定している。
しかし、介入データはアプリケーション間で広まっています。
介入データは因果表現学習を促進するか?
この質問を本論文で検討する。
重要な観察は、介入データは、しばしば潜伏因子の支持の幾何学的シグネチャ(すなわち、潜伏因子がどの値を取ることができるか)を運ぶことである。
例えば、潜在要因が因果関係にある場合、介入は介入された潜在要因の支持と祖先の間の依存関係を壊す可能性がある。
この事実を利用して、完全な$do$の介入から与えられたデータの置換とスケーリングまで、潜在因果要因を識別できることを証明します。
さらに、不完全な介入からのデータにアクセスできれば、推定された潜伏因子が他の潜伏因子と絡み合っているのみであるブロックアフィンの同定も可能である。
これらの結果は、因果表現学習における介入データの独特な力を強調し、その分布や依存構造に関する仮定なしに潜伏因子の証明可能な識別を可能にする。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Purely Observational Data [10.482728002416348]
因果解離は、データの背後にある潜在因果関係について学ぶことを目的としている。
近年の進歩は、(単一の)潜伏因子への介入が可能であると仮定して、識別可能性(identifiability)が確立されている。
非線形因果モデルで同定できる潜伏因子の高精度な評価法を提案する。
論文 参考訳(メタデータ) (2024-10-31T04:18:29Z) - On the Identification of Temporally Causal Representation with Instantaneous Dependence [50.14432597910128]
時間的因果表現学習は時系列観測から潜在因果過程を特定することを目的としている。
ほとんどの方法は、潜在因果過程が即時関係を持たないという仮定を必要とする。
我々は,インスタントtextbfOus textbfLatent dynamics のための textbfIDentification フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T08:08:05Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。