論文の概要: Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies
- arxiv url: http://arxiv.org/abs/2401.04890v1
- Date: Wed, 10 Jan 2024 02:38:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:43:02.481415
- Title: Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies
- Title(参考訳): メカニズム空間による非パラメトリック部分的絡み合い:スパースアクション、インターベンション、スパース時間依存性
- Authors: S\'ebastien Lachapelle, Pau Rodr\'iguez L\'opez, Yash Sharma, Katie
Everett, R\'emi Le Priol, Alexandre Lacoste, Simon Lacoste-Julien
- Abstract要約: この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
- 参考スコア(独自算出の注目度): 58.179981892921056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a novel principle for disentanglement we call mechanism
sparsity regularization, which applies when the latent factors of interest
depend sparsely on observed auxiliary variables and/or past latent factors. We
propose a representation learning method that induces disentanglement by
simultaneously learning the latent factors and the sparse causal graphical
model that explains them. We develop a nonparametric identifiability theory
that formalizes this principle and shows that the latent factors can be
recovered by regularizing the learned causal graph to be sparse. More
precisely, we show identifiablity up to a novel equivalence relation we call
"consistency", which allows some latent factors to remain entangled (hence the
term partial disentanglement). To describe the structure of this entanglement,
we introduce the notions of entanglement graphs and graph preserving functions.
We further provide a graphical criterion which guarantees complete
disentanglement, that is identifiability up to permutations and element-wise
transformations. We demonstrate the scope of the mechanism sparsity principle
as well as the assumptions it relies on with several worked out examples. For
instance, the framework shows how one can leverage multi-node interventions
with unknown targets on the latent factors to disentangle them. We further draw
connections between our nonparametric results and the now popular exponential
family assumption. Lastly, we propose an estimation procedure based on
variational autoencoders and a sparsity constraint and demonstrate it on
various synthetic datasets. This work is meant to be a significantly extended
version of Lachapelle et al. (2022).
- Abstract(参考訳): 本研究は,注意の潜在因子が観測された補助変数および/または過去の潜在因子に依存する場合に適用される,メカニズムスパーシティ・レギュライゼーション(sparsity regularization)と呼ばれる不等角化の新しい原理を導入する。
そこで本研究では,不規則な要因を同時に学習し,それらを説明する疎結合な因果図形モデルを提案する。
我々は,この原理を定式化した非パラメトリック同定可能性理論を開発し,学習因果グラフを正規化することで潜在因子を回復できることを示した。
より正確には、「一貫性」(consistency) と呼ばれる新しい同値関係に同一性を示し、従っていくつかの潜在因子が絡み合う(従って「部分的非絡み合い」という用語)。
この絡み合いの構造を説明するために、絡み合いグラフとグラフ保存関数の概念を紹介する。
さらに、置換や要素ワイド変換に至るまでの識別性を備えた完全不整合を保証するグラフィカルな基準を提供する。
機構の疎性原理のスコープと、それが依存する仮定を、いくつかの実例で示す。
例えば、このフレームワークは、潜在要因に関する未知のターゲットを持つマルチノードの介入を活用して、それらを切り離す方法を示している。
我々はさらに、非パラメトリックな結果と、現在一般的な指数関数的家族の仮定との間の関係も引き出す。
最後に,変分オートエンコーダと疎度制約に基づく推定手法を提案し,様々な合成データセット上で実演する。
この作品は『Lachapelle et al.』(2022年)の大幅な拡張を意図している。
関連論文リスト
- Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Disentanglement of Latent Representations via Causal Interventions [11.238098505498165]
因果力学に着想を得た新しい解離法を提案する。
我々のモデルは、量子化されたベクトルを因果変数とみなし、因果グラフでそれらをリンクする。
グラフの因果的介入を行い、画像の変動のユニークな要因に影響を与える原子遷移を生成する。
論文 参考訳(メタデータ) (2023-02-02T04:37:29Z) - Temporally Disentangled Representation Learning [14.762231867144065]
下位の潜伏変数とその因果関係が任意の非パラメトリック因果関係を持つかどうかは不明である。
時間遅延因果変数を復元する基本フレームワークである textbftextttTDRL を提案する。
私たちのアプローチは、このモジュラー表現を正しく活用しない既存のベースラインをかなり上回ります。
論文 参考訳(メタデータ) (2022-10-24T23:02:49Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Partial Disentanglement via Mechanism Sparsity [25.791043728989937]
メカニズムの疎性による絡み合いは、監督なしで潜伏要因を抽出する原則的アプローチとして導入された。
我々は、この理論の一般化を導入し、任意の基底真実グラフに適用する。
我々は、一貫性と呼ばれるモデルに対する新しい同値関係を通じて、学習された表現がいかに無関係になるかを示す。
論文 参考訳(メタデータ) (2022-07-15T20:06:12Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。