論文の概要: Beyond Diagonal Covariance: Flexible Posterior VAEs via Free-Form Injective Flows
- arxiv url: http://arxiv.org/abs/2506.01522v1
- Date: Mon, 02 Jun 2025 10:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.194048
- Title: Beyond Diagonal Covariance: Flexible Posterior VAEs via Free-Form Injective Flows
- Title(参考訳): 対角的共分散を超えて:自由形射影流による柔軟後部BAE
- Authors: Peter Sorrenson, Lukas Lührs, Hans Olischläger, Ullrich Köthe,
- Abstract要約: 変分オートエンコーダ(VAE)は、解釈可能な潜在空間の学習、不確実性の定量化、下流生成タスクのデータ圧縮に広く用いられている強力な生成モデルである。
本稿では,最近導入されたフリーフォームインジェクティブフロー (FIF) の正規化変種を,高度に柔軟で暗黙的に定義された後部を特徴とするVAEと解釈できることを示す。
- 参考スコア(独自算出の注目度): 7.655073661577189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) are powerful generative models widely used for learning interpretable latent spaces, quantifying uncertainty, and compressing data for downstream generative tasks. VAEs typically rely on diagonal Gaussian posteriors due to computational constraints. Using arguments grounded in differential geometry, we demonstrate inherent limitations in the representational capacity of diagonal covariance VAEs, as illustrated by explicit low-dimensional examples. In response, we show that a regularized variant of the recently introduced Free-form Injective Flow (FIF) can be interpreted as a VAE featuring a highly flexible, implicitly defined posterior. Crucially, this regularization yields a posterior equivalent to a full Gaussian covariance distribution, yet maintains computational costs comparable to standard diagonal covariance VAEs. Experiments on image datasets validate our approach, demonstrating that incorporating full covariance substantially improves model likelihood.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、解釈可能な潜在空間の学習、不確実性の定量化、下流生成タスクのデータ圧縮に広く用いられている強力な生成モデルである。
VAEは通常、計算上の制約により対角ガウス後部に依存する。
微分幾何学を基礎とした議論を用いて、対角共分散VAEの表現能力に固有の限界を示す。
その結果,最近導入されたフリーフォームインジェクティブフロー (FIF) の正規化変種は,高度に柔軟で暗黙的に定義された後部を特徴とするVAEとして解釈できることが示唆された。
重要なことに、この正規化は完全なガウス共分散分布と後続の等価性をもたらすが、標準対角共分散VAEに匹敵する計算コストを維持する。
画像データセットの実験は我々のアプローチを検証し、完全な共分散を組み込むことでモデルの可能性を大幅に改善することを示した。
関連論文リスト
- EquiReg: Equivariance Regularized Diffusion for Inverse Problems [67.01847869495558]
拡散に基づく逆問題解法における後方サンプリングを正規化するためのフレームワークであるEquiReg拡散法を提案する。
様々な解法に適用すると、EquiRegは線形および非線形画像復元タスクにおいて最先端の拡散モデルより優れる。
論文 参考訳(メタデータ) (2025-05-29T01:25:43Z) - A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Preventing Posterior Collapse Induced by Oversmoothing in Gaussian VAE [7.845959449872641]
分散パラメータを適応させることでモデルの平滑性を制御するAR-ELBOを提案する。
さらに、分散パラメータの代替パラメータ化によりVAEを拡張し、非均一または条件付きデータ分散に対処する。
AR-ELBOで訓練されたVAE拡張は、MNISTおよびCelebAデータセットから生成された画像に対するFr'echet受信距離(FID)を改善した。
論文 参考訳(メタデータ) (2021-02-17T10:00:49Z) - SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows [78.77808270452974]
SurVAE Flowsは、VAEと正規化フローを含む構成可能な変換のためのモジュラーフレームワークである。
提案手法は,SurVAE フローとして表現できることが示唆された。
論文 参考訳(メタデータ) (2020-07-06T13:13:22Z) - Disentangled Representation Learning and Generation with Manifold
Optimization [10.69910379275607]
本研究は,変分方向の促進による絡み合いを明確に促進する表現学習フレームワークを提案する。
理論的な議論と様々な実験により、提案モデルは、生成品質と非絡み合い表現学習の両方の観点から、多くのVAE変種よりも改善されていることが示された。
論文 参考訳(メタデータ) (2020-06-12T10:00:49Z) - tvGP-VAE: Tensor-variate Gaussian Process Prior Variational Autoencoder [0.0]
tvGP-VAEはカーネル関数を使用して相関を明示的にモデル化することができる。
そこで本研究では,どの相関構造を潜在空間で明示的に表現するかの選択が,モデル性能に大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-06-08T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。