論文の概要: Score-based Causal Representation Learning with Interventions
- arxiv url: http://arxiv.org/abs/2301.08230v1
- Date: Thu, 19 Jan 2023 18:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:13:09.406181
- Title: Score-based Causal Representation Learning with Interventions
- Title(参考訳): 介入によるスコアベース因果表現学習
- Authors: Burak Varici, Emre Acarturk, Karthikeyan Shanmugam, Abhishek Kumar,
Ali Tajer
- Abstract要約: 本稿では,潜在因果変数が未知の線形変換によって間接的に観察される場合の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングと順序付けまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
- 参考スコア(独自算出の注目度): 54.735484409244386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies causal representation learning problem when the latent
causal variables are observed indirectly through an unknown linear
transformation. The objectives are: (i) recovering the unknown linear
transformation (up to scaling and ordering), and (ii) determining the directed
acyclic graph (DAG) underlying the latent variables. Since identifiable
representation learning is impossible based on only observational data, this
paper uses both observational and interventional data. The interventional data
is generated under distinct single-node randomized hard and soft interventions.
These interventions are assumed to cover all nodes in the latent space. It is
established that the latent DAG structure can be recovered under soft
randomized interventions via the following two steps. First, a set of
transformation candidates is formed by including all inverting transformations
corresponding to which the \emph{score} function of the transformed variables
has the minimal number of coordinates that change between an interventional and
the observational environment summed over all pairs. Subsequently, this set is
distilled using a simple constraint to recover the latent DAG structure. For
the special case of hard randomized interventions, with an additional
hypothesis testing step, one can also uniquely recover the linear
transformation, up to scaling and a valid causal ordering. These results
generalize the recent results that either assume deterministic hard
interventions or linear causal relationships in the latent space.
- Abstract(参考訳): 本稿では,未知の線形変換によって潜在因果変数が間接的に観測される場合の因果表現学習問題について述べる。
目的は以下の通り。
(i)未知の線形変換(スケーリングや順序付けまで)を回収すること、及び
(ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定する。
観察データのみに基づいて識別可能な表現学習は不可能であるため,観察データと介入データの両方を用いる。
介入データは、異なる単一ノードランダム化ハードおよびソフトな介入の下で生成される。
これらの介入は潜在空間内の全てのノードをカバーすると仮定される。
潜伏dag構造は,以下の2ステップを通じてソフトランダムな介入により回復できることがわかった。
まず、変換候補の集合は、変換変数の \emph{score} 関数がすべての対で総和される介入環境と観測環境の間で変化する最小の座標数を持つすべての反転変換を含むことによって構成される。
その後、このセットを簡単な制約で蒸留し、潜伏DAG構造を復元する。
厳密なランダム化介入の特別な場合、追加の仮説テストステップにより、線形変換、スケーリング、有効な因果順序まで、一意に回復することができる。
これらの結果は、決定論的ハード介入または潜在空間における線形因果関係を仮定する最近の結果を一般化する。
関連論文リスト
- Causality Pursuit from Heterogeneous Environments via Neural Adversarial Invariance Learning [12.947265104477237]
データから因果関係を抽出することは、科学的発見、治療介入、伝達学習における根本的な問題である。
Focused Adversial Invariant Regularization (FAIR) フレームワークは、革新的なミニマックス最適化アプローチを採用している。
FAIR-NNは最小の識別条件下で不変変数と準因果変数を見つけることができる。
論文 参考訳(メタデータ) (2024-05-07T23:37:40Z) - Score-based Causal Representation Learning: Linear and General Transformations [31.786444957887472]
本稿は、識別可能性と達成可能性の両方に対処する。
スコアに基づくアルゴリズムのクラスを設計し、識別性と達成性の両方を保証する。
結果は構造化された合成データと画像データの実験によって実証的に検証される。
論文 参考訳(メタデータ) (2024-02-01T18:40:03Z) - General Identifiability and Achievability for Causal Representation
Learning [33.80247458590611]
本稿では,潜伏因果グラフにおけるノード毎の2つのハードアンカップリング介入を用いて,識別可能性と達成性を評価する。
同定可能性について,未結合の介入の下で潜伏因果モデルと変数の完全回復が保証されることを示す。
さらに、この分析は、2つのハードカップリングされた介入に対して、同一ノードが介在する2つの環境に関するメタデータが知られている場合に、識別可能性の結果を回復する。
論文 参考訳(メタデータ) (2023-10-24T01:47:44Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - Linear Causal Disentanglement via Interventions [8.444187296409051]
因果解離は因果モデルを通して相互に関連する潜伏変数を含むデータの表現を求める。
線形潜在因果モデルの線形変換である観測変数について検討した。
論文 参考訳(メタデータ) (2022-11-29T18:43:42Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders [0.0]
本研究は,非線形次元低減のための変分オートエンコーダ (VAE) の利用について検討する。
不整合分解は解釈可能であり、生成的モデリングを含む様々なタスクに転送することができる。
論文 参考訳(メタデータ) (2021-09-15T16:02:43Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。