論文の概要: CauF-VAE: Causal Disentangled Representation Learning with VAE and
Causal Flows
- arxiv url: http://arxiv.org/abs/2304.09010v3
- Date: Tue, 30 May 2023 09:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 01:00:37.686601
- Title: CauF-VAE: Causal Disentangled Representation Learning with VAE and
Causal Flows
- Title(参考訳): cauf-vae: vaeと因果フローを用いた因果的不等角表現学習
- Authors: Di Fan, Yannian Kou and Chuanhou Gao
- Abstract要約: 遠方表現学習は、各次元が1つの基礎となる生成因子に対応するデータの低次元表現を学習することを目的としている。
まず、生成因子の真の因果構造をフローに組み込んだ、因果流と呼ばれる自己回帰流の変種を提案する。
我々は因果フローに基づく新たなVAEモデルCauF-VAE(Causal Flows Variational Autoencoders)を設計し、因果不整合表現を学習する。
- 参考スコア(独自算出の注目度): 1.1279808969568252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentangled representation learning aims to learn a low dimensional
representation of data where each dimension corresponds to one underlying
generative factor. Due to the causal relationships between generative factors
in real-world situations, causal disentangled representation learning has
received widespread attention. In this paper, we first propose a variant of
autoregressive flows, called causal flows, which incorporate true causal
structure of generative factors into the flows. Then, we design a new VAE model
based on causal flows named Causal Flows Variational Autoencoders (CauF-VAE) to
learn causally disentangled representations. We provide a theoretical analysis
of the disentanglement identifiability of CauF-VAE by incorporating supervised
information on the ground-truth factors. The performance of CauF-VAE is
evaluated on both synthetic and real datasets, showing its capability of
achieving causal disentanglement and performing intervention experiments.
Moreover, CauF-VAE exhibits remarkable performance on downstream tasks and has
the potential to learn true causal structure among factors.
- Abstract(参考訳): disentangled representation learningは、各次元が1つの根底にある生成因子に対応するデータの低次元表現を学ぶことを目的としている。
現実の状況における生成要因間の因果関係から,因果不整合表現学習が注目されている。
本稿では,まず,生成因子の真の因果構造を流れに組み込んだ自己回帰流(causal flow)の変種を提案する。
そこで我々は因果フローに基づく新たなVAEモデルCauF-VAE(Causal Flows Variational Autoencoders)を設計し,因果不整合表現を学習する。
地中因子の教師付き情報を組み込んだcauf-vaeのばらつき識別性に関する理論的解析を行う。
CauF-VAEの性能は、合成データセットと実データセットの両方で評価され、因果不整合を達成し、介入実験を行う能力を示している。
さらに、CauF-VAEは下流タスクにおいて顕著な性能を示し、要因間の真の因果構造を学習する可能性がある。
関連論文リスト
- Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は、最適化に基づく不整合アプローチと離散表現学習を組み合わせる。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Correlation Information Bottleneck: Towards Adapting Pretrained
Multimodal Models for Robust Visual Question Answering [63.87200781247364]
相関情報ボトルネック (CIB) は圧縮と表現の冗長性のトレードオフを求める。
マルチモーダル入力と表現の相互情報に対して,理論上界を厳密に導出する。
論文 参考訳(メタデータ) (2022-09-14T22:04:10Z) - The Transitive Information Theory and its Application to Deep Generative
Models [0.0]
変分オートエンコーダ(VAE)は2つの反対方向に押される。
既存の方法では、圧縮と再構成の間のレート歪みのトレードオフに問題を絞り込む。
一般化のために学習した表現を再結合する機構とともに,非交叉表現の階層構造を学習するシステムを開発する。
論文 参考訳(メタデータ) (2022-03-09T22:35:02Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Contrastively Disentangled Sequential Variational Autoencoder [20.75922928324671]
本稿では,C-DSVAE(Contrastively Disentangled Sequential Variational Autoencoder)という新しいシーケンス表現学習手法を提案する。
我々は,静的因子と動的因子の相互情報をペナルティ化しながら,入力と潜伏因子の相互情報を最大化する新しいエビデンスローバウンドを用いる。
実験の結果、C-DSVAEは従来の最先端の手法よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-22T23:00:32Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z) - NestedVAE: Isolating Common Factors via Weak Supervision [45.366986365879505]
我々は、バイアス低減の課題と、ドメイン間で共通する分離要因の関係を同定する。
共通因子を分離するために、潜伏変数モデルの理論と情報ボトルネック理論を組み合わせる。
共有重みを持つ2つの外部VAEは入力を再構成し、潜伏空間を推論し、一方、ネストされたVAEはペア化された画像の潜伏表現から1つの画像の潜伏表現を再構成しようとする。
論文 参考訳(メタデータ) (2020-02-26T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。