論文の概要: Learning Causally Disentangled Representations via the Principle of
Independent Causal Mechanisms
- arxiv url: http://arxiv.org/abs/2306.01213v1
- Date: Fri, 2 Jun 2023 00:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 17:12:27.296686
- Title: Learning Causally Disentangled Representations via the Principle of
Independent Causal Mechanisms
- Title(参考訳): 独立因果メカニズムの原理による因果解離表現の学習
- Authors: Aneesh Komanduri, Yongkai Wu, Feng Chen, Xintao Wu
- Abstract要約: 本稿では、因果関係の観測ラベルによって教師される因果関係の非絡み合い表現を学習するための枠組みを提案する。
この枠組みは, 極めて不整合な因果関係を生じさせ, 介入の堅牢性を向上し, 反事実発生と相容れないことを示す。
- 参考スコア(独自算出の注目度): 20.840429945576574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning disentangled causal representations is a challenging problem that
has gained significant attention recently due to its implications for
extracting meaningful information for downstream tasks. In this work, we define
a new notion of causal disentanglement from the perspective of independent
causal mechanisms. We propose ICM-VAE, a framework for learning causally
disentangled representations supervised by causally related observed labels. We
model causal mechanisms using learnable flow-based diffeomorphic functions to
map noise variables to latent causal variables. Further, to promote the
disentanglement of causal factors, we propose a causal disentanglement prior
that utilizes the known causal structure to encourage learning a causally
factorized distribution in the latent space. Under relatively mild conditions,
we provide theoretical results showing the identifiability of causal factors
and mechanisms up to permutation and elementwise reparameterization. We
empirically demonstrate that our framework induces highly disentangled causal
factors, improves interventional robustness, and is compatible with
counterfactual generation.
- Abstract(参考訳): 分散因果表現の学習は、下流タスクに意味のある情報を抽出することの意味から、近年大きな注目を集めている課題である。
本研究は, 独立因果機構の観点から, 因果不連続の新しい概念を定義する。
icm-vaeは因果関係の観測ラベルによって管理される因果的不等角表現を学習するためのフレームワークである。
学習可能なフローベース微分型関数を用いて因果メカニズムをモデル化し、雑音変数を潜在因果変数にマッピングする。
さらに,因果的要因の分散を促進するために,因果的要因の因果的分布の学習を促進するために,既知の因果的構造を利用した因果的絡み合いを事前に提案する。
比較的穏やかな条件下では,因果因子の同定可能性と置換および要素別再パラメータ化までのメカニズムを理論的に示す。
我々は経験的に,このフレームワークが高度に不連続な因果要因を誘発し,介入的ロバスト性を改善し,反事実生成と互換性があることを実証する。
関連論文リスト
- Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Phenomenological Causality [14.817342045377842]
本稿では,基本的な概念が基本的な行動の集合である「現象因果性」の概念を提案する。
検討中のシステムが基本的な動作を制御する他の変数と相互作用する場合、それは因果マルコフ条件と一致していると論じる。
論文 参考訳(メタデータ) (2022-11-15T13:05:45Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - On Causally Disentangled Representations [18.122893077772993]
本稿では,不整合因果過程の概念を用いて,不整合表現の分析を行う。
我々の測定値が不整合因果過程のデシダラタを捉えていることが示される。
本研究では,このメトリクスとデータセットを用いて,非絡み合った表現学習者の状態に関する実証的研究を行い,因果的視点から評価する。
論文 参考訳(メタデータ) (2021-12-10T18:56:27Z) - Learning Generalized Gumbel-max Causal Mechanisms [31.64007831043909]
対物処理効果を推定する際のばらつきの最小化など,定量的な基準の下で最良となる因果メカニズムを選択することを論じる。
興味のある問合せの分布に反実効果のばらつきやその他の損失を最小化するように訓練できることが示される。
論文 参考訳(メタデータ) (2021-11-11T22:02:20Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。