論文の概要: Improving the Generation of VAEs with High Dimensional Latent Spaces by the use of Hyperspherical Coordinates
- arxiv url: http://arxiv.org/abs/2507.15900v1
- Date: Mon, 21 Jul 2025 05:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.802211
- Title: Improving the Generation of VAEs with High Dimensional Latent Spaces by the use of Hyperspherical Coordinates
- Title(参考訳): 超球面座標を用いた高次元遅延空間を用いたVAEの生成改善
- Authors: Alejandro Ascarate, Leo Lebrat, Rodrigo Santa Cruz, Clinton Fookes, Olivier Salvado,
- Abstract要約: 変分オートエンコーダ(VAE)は、これらのベクトルをデータに復号する前に、データを低次元の潜在ベクトルに符号化する。
本稿では,計算オーバーヘッドが制限された潜在空間のパラメータ化を提案する。
- 参考スコア(独自算出の注目度): 59.4526726541389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational autoencoders (VAE) encode data into lower-dimensional latent vectors before decoding those vectors back to data. Once trained, decoding a random latent vector from the prior usually does not produce meaningful data, at least when the latent space has more than a dozen dimensions. In this paper, we investigate this issue by drawing insight from high dimensional statistics: in these regimes, the latent vectors of a standard VAE are by construction distributed uniformly on a hypersphere. We propose to formulate the latent variables of a VAE using hyperspherical coordinates, which allows compressing the latent vectors towards an island on the hypersphere, thereby reducing the latent sparsity and we show that this improves the generation ability of the VAE. We propose a new parameterization of the latent space with limited computational overhead.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、これらのベクトルをデータに復号する前に、データを低次元の潜在ベクトルに符号化する。
一度訓練されると、前者からランダムな潜伏ベクトルを復号することは、少なくとも潜伏空間が1ダース以上の次元を持つ場合、通常意味のあるデータを生成しない。
本稿では,超球面上に一様に分布する標準VAEの潜伏ベクトルについて,高次元統計学の知見を導き,この問題を考察する。
我々は,超球面座標を用いて,超球面上の島に向かって潜時ベクトルを圧縮し,潜時空間の縮減を図り,VAEの生成能力を向上させることを提案する。
本稿では,計算オーバーヘッドが制限された潜在空間のパラメータ化を提案する。
関連論文リスト
- LASERS: LAtent Space Encoding for Representations with Sparsity for Generative Modeling [3.9426000822656224]
より潜在的な空間はより表現力が高く、ベクトル量子化アプローチよりも表現性がよいことを示す。
以上の結果から,VQ手法の真の利点は,潜伏空間の離散化ではなく,潜伏空間の損失圧縮によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-16T08:20:58Z) - HyperVQ: MLR-based Vector Quantization in Hyperbolic Space [56.4245885674567]
一般的な解決策は、VQ変分オートエンコーダ(VQVAE)にベクトル量子化(VQ)を採用することである。
本稿では,双曲型多相ロジスティック回帰(MLR)問題としてVQを定式化する新しい手法であるHyperVQを紹介する。
本実験は,HyperVQが従来のVQに比較し,識別性能を上回りながら,生成・再構成タスクに適合することを示した。
論文 参考訳(メタデータ) (2024-03-18T03:17:08Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Dimension-reduced KRnet maps for high-dimensional inverse problems [0.0]
高次元逆問題に対する次元還元KRnetマップアプローチ(DR-KRnet)を提案する。
提案手法は,データ駆動型VAE前駆体と潜伏変数後部密度近似の2つの主成分から構成される。
論文 参考訳(メタデータ) (2023-03-01T15:16:27Z) - RENs: Relevance Encoding Networks [0.0]
本稿では,遅延空間に先行する自動相対性決定(ARD)を用いて,データ固有のボトルネック次元を学習する新しい確率的VOEベースのフレームワークであるrelevance encoding network (RENs)を提案する。
提案モデルは,サンプルの表現や生成品質を損なうことなく,関連性のあるボトルネック次元を学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T21:53:48Z) - Robust Differentiable SVD [117.35644933471401]
対称行列の固有分解は多くのコンピュータビジョンアルゴリズムの中心にある。
不安定性は互いに近い固有値の存在によって生じる。
SVD勾配のテイラー展開は、反復過程に依存することなくPIを用いて得られる勾配と理論的に等価であることを示す。
論文 参考訳(メタデータ) (2021-04-08T15:04:15Z) - Variational Hyper-Encoding Networks [62.74164588885455]
ニューラルネットワークパラメータの分布を符号化するHyperVAEというフレームワークを提案する。
遅延符号の後部分布を予測し,行列ネットワークデコーダを用いて後部分布q(theta)を生成する。
論文 参考訳(メタデータ) (2020-05-18T06:46:09Z) - Dynamic Narrowing of VAE Bottlenecks Using GECO and L0 Regularization [5.57310999362848]
本研究では,VAEの潜伏空間次元を自動・オンザフライで縮小する手法を開発した。
本稿では,提案手法のアルゴリズムの詳細と5つの異なるデータセットに対する実験結果について述べる。
論文 参考訳(メタデータ) (2020-03-24T14:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。