論文の概要: A Sparsity Principle for Partially Observable Causal Representation Learning
- arxiv url: http://arxiv.org/abs/2403.08335v2
- Date: Sat, 15 Jun 2024 13:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 05:27:06.215477
- Title: A Sparsity Principle for Partially Observable Causal Representation Learning
- Title(参考訳): 部分観測可能な因果表現学習のための空間原理
- Authors: Danru Xu, Dingling Yao, Sébastien Lachapelle, Perouz Taslakian, Julius von Kügelgen, Francesco Locatello, Sara Magliacane,
- Abstract要約: 因果表現学習は、知覚データから高レベルの因果変数を特定することを目的としている。
我々は、インスタンスに依存した部分的可観測パターンを持つデータセットから、未確認の観測から学ぶことに集中する。
提案手法は,推定された表現の間隔を小さくすることで,基礎となる因果変数を推定する2つの手法である。
- 参考スコア(独自算出の注目度): 28.25303444099773
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Causal representation learning aims at identifying high-level causal variables from perceptual data. Most methods assume that all latent causal variables are captured in the high-dimensional observations. We instead consider a partially observed setting, in which each measurement only provides information about a subset of the underlying causal state. Prior work has studied this setting with multiple domains or views, each depending on a fixed subset of latents. Here, we focus on learning from unpaired observations from a dataset with an instance-dependent partial observability pattern. Our main contribution is to establish two identifiability results for this setting: one for linear mixing functions without parametric assumptions on the underlying causal model, and one for piecewise linear mixing functions with Gaussian latent causal variables. Based on these insights, we propose two methods for estimating the underlying causal variables by enforcing sparsity in the inferred representation. Experiments on different simulated datasets and established benchmarks highlight the effectiveness of our approach in recovering the ground-truth latents.
- Abstract(参考訳): 因果表現学習は、知覚データから高レベルの因果変数を特定することを目的としている。
ほとんどの手法は、すべての潜伏因果変数が高次元の観測で捉えられると仮定する。
代わりに、各測定値が根底にある因果状態のサブセットに関する情報のみを提供する部分的な設定を考える。
以前の研究では、複数のドメインやビューでこの設定を研究しており、それぞれがラテントの固定されたサブセットに依存している。
ここでは、インスタンスに依存した部分的可観測パターンを持つデータセットから、未確認の観測から学ぶことに焦点を当てる。
本研究の主な貢献は, 基礎となる因果モデルにパラメトリックな仮定を伴わない線形混合関数と, ガウス潜在因果変数を持つ片方向線形混合関数の2つの相同性を求めることである。
これらの知見に基づいて、推定された表現の空間性を強制することにより、基礎となる因果変数を推定する2つの方法を提案する。
異なるシミュレーションデータセットと確立されたベンチマークの実験は、地道潜伏者の回復における我々のアプローチの有効性を強調している。
関連論文リスト
- Unifying Causal Representation Learning with the Invariance Principle [21.375611599649716]
因果表現学習は、高次元観測から潜伏因果変数を復元することを目的としている。
我々の主な貢献は、既存の因果表現学習アプローチの多くが、その表現を既知のデータ対称性に方法論的に整合させることである。
論文 参考訳(メタデータ) (2024-09-04T14:51:36Z) - Unsupervised Pairwise Causal Discovery on Heterogeneous Data using Mutual Information Measures [49.1574468325115]
因果発見(Causal Discovery)は、構成変数の統計的性質を分析することで、この問題に取り組む手法である。
教師付き学習によって得られたことに基づいて,現在の(おそらく誤解を招く)ベースライン結果に疑問を呈する。
その結果、堅牢な相互情報測定を用いて、教師なしの方法でこの問題にアプローチする。
論文 参考訳(メタデータ) (2024-08-01T09:11:08Z) - Identifying Linearly-Mixed Causal Representations from Multi-Node Interventions [14.586959818386765]
因果表現学習において、複数の変数を1つの環境内の介入によって対象とすることができる最初の識別可能性結果を提供する。
我々のアプローチは、環境全体にわたる介入のカバレッジと多様性に関する一般的な仮定に基づいている。
理論的貢献に加えて,多ノード干渉データから因果表現を学習するための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-05T16:05:00Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。