論文の概要: Learning disentangled representations with the Wasserstein Autoencoder
- arxiv url: http://arxiv.org/abs/2010.03459v1
- Date: Wed, 7 Oct 2020 14:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:02:31.837516
- Title: Learning disentangled representations with the Wasserstein Autoencoder
- Title(参考訳): Wasserstein Autoencoder を用いた非交叉表現の学習
- Authors: Benoit Gaujac and Ilya Feige and David Barber
- Abstract要約: 我々は,潜伏変数の総相関をペナルティ化するためのTCWAE(Total correlation Wasserstein Autoencoder)を提案する。
本稿では,WAEパラダイムにおける作業が,全相関項の分離を自然に可能にし,学習した表現に対する絡み合いの制御を可能にすることを示す。
さらに, 再構成期間におけるWAEパラダイムの柔軟性が向上する, 未知の生成因子を含む, より複雑なデータセット上での絡み合いと再構成のトレードオフについて検討する。
- 参考スコア(独自算出の注目度): 22.54887526392739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentangled representation learning has undoubtedly benefited from objective
function surgery. However, a delicate balancing act of tuning is still required
in order to trade off reconstruction fidelity versus disentanglement. Building
on previous successes of penalizing the total correlation in the latent
variables, we propose TCWAE (Total Correlation Wasserstein Autoencoder).
Working in the WAE paradigm naturally enables the separation of the
total-correlation term, thus providing disentanglement control over the learned
representation, while offering more flexibility in the choice of reconstruction
cost. We propose two variants using different KL estimators and perform
extensive quantitative comparisons on data sets with known generative factors,
showing competitive results relative to state-of-the-art techniques. We further
study the trade off between disentanglement and reconstruction on
more-difficult data sets with unknown generative factors, where the flexibility
of the WAE paradigm in the reconstruction term improves reconstructions.
- Abstract(参考訳): 乱れた表現学習は、明らかに客観的機能手術の恩恵を受けている。
しかし、再建の忠実さと絡み合いを両立させるには微妙な調整法が必要である。
潜在変数における全相関をペナライズする以前の成功を踏まえ,tcwae(total correlation wasserstein autoencoder)を提案する。
WAEパラダイムにおける作業は、総相関項の分離を自然に可能とし、学習した表現のゆがみを制御し、再構築コストの選択に柔軟性を提供する。
異なるkl推定器を用いた2つの変種を提案し,既知の生成因子を用いたデータセットの量的比較を行い,最新技術と比較した。
さらに, 再構成期間におけるWAEパラダイムの柔軟性が向上する, 未知の生成因子を含む, より複雑なデータセット上での絡み合いと再構成のトレードオフについて検討する。
関連論文リスト
- Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - REBAR: Retrieval-Based Reconstruction for Time-series Contrastive Learning [64.08293076551601]
正の対を識別する学習尺度を新たに提案する。
検索ベースレコンストラクションは2つのシーケンス間の類似度を測定する。
本稿では,REBAR誤差が相互クラスメンバシップの予測因子であることを示す。
論文 参考訳(メタデータ) (2023-11-01T13:44:45Z) - C$^2$VAE: Gaussian Copula-based VAE Differing Disentangled from Coupled
Representations with Contrastive Posterior [36.2531431458649]
本研究では,自己教師付き変分オートエンコーダ(VAE)を用いて,非絡み合いや依存型隠れ因子を共同学習する。
次に、自己教師付き分類器による非交叉表現学習を強化し、コントラスト的な方法で結合表現を除去する。
論文 参考訳(メタデータ) (2023-09-23T08:33:48Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - GCVAE: Generalized-Controllable Variational AutoEncoder [0.0]
極めて低い復元誤差と高い絡み合いスコアのトレードオフを扱うための枠組みを提案する。
復元ネットワークにおける情報の最大化は、償却推論時の情報と等価であることを示す。
論文 参考訳(メタデータ) (2022-06-09T02:29:30Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - End-to-end reconstruction meets data-driven regularization for inverse
problems [2.800608984818919]
本稿では,不適切な逆問題に対するエンド・ツー・エンドの再構成演算子を学習するための教師なしアプローチを提案する。
提案手法は,古典的変分フレームワークと反復的アンローリングを組み合わせたものである。
我々は,X線CT(Computerd tomography)の例で,最先端の教師なし手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T12:05:06Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Disentangled Representation Learning with Wasserstein Total Correlation [90.44329632061076]
本稿では,変分オートエンコーダとワッサースタインオートエンコーダの設定に総相関を導入し,非絡み付き潜在表現を学習する。
批評家は、ワッサーシュタインの総相関項を推定する主な目的と共に、敵対的に訓練される。
提案手法は, 再建能力の犠牲が小さく, 絡み合いに匹敵する性能を有することを示す。
論文 参考訳(メタデータ) (2019-12-30T05:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。