論文の概要: Invariance & Causal Representation Learning: Prospects and Limitations
- arxiv url: http://arxiv.org/abs/2312.03580v1
- Date: Wed, 6 Dec 2023 16:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 14:22:55.847137
- Title: Invariance & Causal Representation Learning: Prospects and Limitations
- Title(参考訳): 不変性と因果表現学習:展望と限界
- Authors: Simon Bing, Jonas Wahl, Urmi Ninad, Jakob Runge
- Abstract要約: 因果モデルでは、与えられたメカニズムは他のメカニズムの変化に不変であると仮定される。
因果変数を同定するには不変性だけでは不十分であることを示す。
- 参考スコア(独自算出の注目度): 15.935205681539145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In causal models, a given mechanism is assumed to be invariant to changes of
other mechanisms. While this principle has been utilized for inference in
settings where the causal variables are observed, theoretical insights when the
variables of interest are latent are largely missing. We assay the connection
between invariance and causal representation learning by establishing
impossibility results which show that invariance alone is insufficient to
identify latent causal variables. Together with practical considerations, we
use these theoretical findings to highlight the need for additional constraints
in order to identify representations by exploiting invariance.
- Abstract(参考訳): 因果モデルでは、与えられたメカニズムは他のメカニズムの変化に不変であると仮定される。
この原理は因果変数が観測される場合の推論に利用されてきたが、興味のある変数が潜在している場合の理論的な洞察はほとんど失われている。
因果変数を識別するには不変性のみが不十分であることを示す不確実性結果を確立することにより,不分散と因果表現学習の関係を検証した。
実用的考察とともに,これらの理論的な知見を用いて,不変性を利用して表現を識別するための追加的な制約の必要性を強調する。
関連論文リスト
- Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - On the Use of Generative Models in Observational Causal Analysis [0.0]
仮説生成モデルを用いて観測データの因果解析を行った。
このモデルは単一の観測可能な分布を記述しており、観測された分布から逸脱する介入の影響の連鎖を表現できない。
論文 参考訳(メタデータ) (2023-06-07T21:29:49Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Restricted Hidden Cardinality Constraints in Causal Models [0.0]
観測されていない変数を持つ因果モデルは、観測された変数上の分布に非自明な制約を課す。
我々は、観測されていない変数が既知の濃度を持つことを約束する因果モデルを考える。
論文 参考訳(メタデータ) (2021-09-13T00:52:08Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。