論文の概要: Learning Disentangled Representations with Latent Variation
Predictability
- arxiv url: http://arxiv.org/abs/2007.12885v1
- Date: Sat, 25 Jul 2020 08:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:20:06.746646
- Title: Learning Disentangled Representations with Latent Variation
Predictability
- Title(参考訳): 潜在変動予測可能性を持つ不連続表現の学習
- Authors: Xinqi Zhu and Chang Xu and Dacheng Tao
- Abstract要約: 本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
- 参考スコア(独自算出の注目度): 102.4163768995288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent traversal is a popular approach to visualize the disentangled latent
representations. Given a bunch of variations in a single unit of the latent
representation, it is expected that there is a change in a single factor of
variation of the data while others are fixed. However, this impressive
experimental observation is rarely explicitly encoded in the objective function
of learning disentangled representations. This paper defines the variation
predictability of latent disentangled representations. Given image pairs
generated by latent codes varying in a single dimension, this varied dimension
could be closely correlated with these image pairs if the representation is
well disentangled. Within an adversarial generation process, we encourage
variation predictability by maximizing the mutual information between latent
variations and corresponding image pairs. We further develop an evaluation
metric that does not rely on the ground-truth generative factors to measure the
disentanglement of latent representations. The proposed variation
predictability is a general constraint that is applicable to the VAE and GAN
frameworks for boosting disentanglement of latent representations. Experiments
show that the proposed variation predictability correlates well with existing
ground-truth-required metrics and the proposed algorithm is effective for
disentanglement learning.
- Abstract(参考訳): 潜在トラバーサル(英: latent traversal)は、不連続な潜在表現を視覚化する一般的なアプローチである。
潜在表現の1つの単位に多くのバリエーションが与えられると、データの変動の1つの要因が変化し、他の要素が修正されることが期待される。
しかし、この印象的な実験的観察は、非絡み合い表現を学習する目的関数に明示的に符号化されることは滅多にない。
本稿では,潜在不連続表現の変動予測可能性を定義する。
一つの次元で異なる潜在符号によって生成される画像対を考えると、表現がうまく絡み合っている場合、この変化次元はこれらの画像対と密接に相関する。
逆生成過程において、潜在変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を促進する。
さらに,潜在表現の絡み合いを測るために,基礎的構造的要因に依存しない評価指標を開発した。
提案した変動予測性は,潜在表現の絡み合いを高めるために,VAEおよびGANフレームワークに適用可能な一般的な制約である。
実験により,提案した変動予測性は,既存の実測値とよく相関し,提案アルゴリズムは非絡み合い学習に有効であることが示された。
関連論文リスト
- Interpreting Equivariant Representations [5.325297567945828]
本稿では,同変モデルによる帰納バイアスも潜在表現を用いて考慮する必要があることを示す。
インダクティブバイアスを考慮しないと下流タスクのパフォーマンスが低下することを示す。
論文 参考訳(メタデータ) (2024-01-23T09:43:30Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Self-Supervised Learning with Data Augmentations Provably Isolates
Content from Style [32.20957709045773]
我々は拡張過程を潜在変数モデルとして定式化する。
本研究では,2対の観測結果に基づいて,潜在表現の識別可能性について検討した。
Causal3DIdentは、因果関係が豊富な高次元、視覚的に複雑な画像のデータセットである。
論文 参考訳(メタデータ) (2021-06-08T18:18:09Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - NestedVAE: Isolating Common Factors via Weak Supervision [45.366986365879505]
我々は、バイアス低減の課題と、ドメイン間で共通する分離要因の関係を同定する。
共通因子を分離するために、潜伏変数モデルの理論と情報ボトルネック理論を組み合わせる。
共有重みを持つ2つの外部VAEは入力を再構成し、潜伏空間を推論し、一方、ネストされたVAEはペア化された画像の潜伏表現から1つの画像の潜伏表現を再構成しようとする。
論文 参考訳(メタデータ) (2020-02-26T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。