論文の概要: Disentangled Representation Learning and Generation with Manifold
Optimization
- arxiv url: http://arxiv.org/abs/2006.07046v4
- Date: Mon, 30 May 2022 16:19:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:39:45.233219
- Title: Disentangled Representation Learning and Generation with Manifold
Optimization
- Title(参考訳): 直交表現学習とマニフォールド最適化による生成
- Authors: Arun Pandey, Michael Fanuel, Joachim Schreurs, Johan A. K. Suykens
- Abstract要約: 本研究は,変分方向の促進による絡み合いを明確に促進する表現学習フレームワークを提案する。
理論的な議論と様々な実験により、提案モデルは、生成品質と非絡み合い表現学習の両方の観点から、多くのVAE変種よりも改善されていることが示された。
- 参考スコア(独自算出の注目度): 10.69910379275607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentanglement is a useful property in representation learning which
increases the interpretability of generative models such as Variational
autoencoders (VAE), Generative Adversarial Models, and their many variants.
Typically in such models, an increase in disentanglement performance is
traded-off with generation quality. In the context of latent space models, this
work presents a representation learning framework that explicitly promotes
disentanglement by encouraging orthogonal directions of variations. The
proposed objective is the sum of an autoencoder error term along with a
Principal Component Analysis reconstruction error in the feature space. This
has an interpretation of a Restricted Kernel Machine with the eigenvector
matrix-valued on the Stiefel manifold. Our analysis shows that such a
construction promotes disentanglement by matching the principal directions in
the latent space with the directions of orthogonal variation in data space. In
an alternating minimization scheme, we use Cayley ADAM algorithm - a stochastic
optimization method on the Stiefel manifold along with the ADAM optimizer. Our
theoretical discussion and various experiments show that the proposed model
improves over many VAE variants in terms of both generation quality and
disentangled representation learning.
- Abstract(参考訳): ディエンタングルメントは表現学習において有用な性質であり、変分オートエンコーダ(VAE)や生成的逆数モデル(Generative Adversarial Models)などの生成モデルの解釈可能性を高める。
このようなモデルでは通常、乱れ性能の増大は世代品質とトレードオフされる。
潜在空間モデルの文脈において、本研究は、変形の直交方向を奨励することにより、乱れを明示的に促進する表現学習フレームワークを提案する。
提案手法は,自動エンコーダの誤り項と特徴空間の主成分分析再構成誤差の合計である。
これは、スティフェル多様体上で固有ベクトル行列が評価された制限カーネルマシンの解釈を持つ。
解析により,データ空間の直交変化の方向と潜伏空間の主方向を一致させることにより,この構造が絡み合いを促進することが示された。
交互に最小化するスキームでは,Stiefel 多様体上の確率最適化法である Cayley ADAM アルゴリズムと ADAM 最適化器を用いる。
理論的な議論と様々な実験により,提案モデルが世代品質と異種表現学習の両面で,多くのvae変種に対して改善することを示した。
関連論文リスト
- Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Invariance-based Multi-Clustering of Latent Space Embeddings for
Equivariant Learning [12.770012299379099]
より深い群不変学習を強制することにより、リー群多様体における等角写像を非共役化する手法を提案する。
実験の結果,このモデルでは,不変表現と同変表現を効果的に切り離すことができ,学習速度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2021-07-25T03:27:47Z) - A Differential Geometry Perspective on Orthogonal Recurrent Models [56.09491978954866]
我々は微分幾何学からのツールと洞察を用いて、直交rnnの新しい視点を提供する。
直交RNNは、発散自由ベクトル場の空間における最適化と見なすことができる。
この観測に動機づけられて、ベクトル場全体の空間にまたがる新しいリカレントモデルの研究を行う。
論文 参考訳(メタデータ) (2021-02-18T19:39:22Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - On the Encoder-Decoder Incompatibility in Variational Text Modeling and
Beyond [82.18770740564642]
変分オートエンコーダ(VAE)は、潜時変数と償却変分推論を結合する。
我々は,データ多様体のパラメータ化が不十分なエンコーダ・デコーダの不整合性を観察する。
同一構造を持つ決定論的オートエンコーダとVAEモデルを結合した結合型VAEを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:10Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。