論文の概要: Beta-Sigma VAE: Separating beta and decoder variance in Gaussian variational autoencoder
- arxiv url: http://arxiv.org/abs/2409.09361v1
- Date: Sat, 14 Sep 2024 08:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:19:23.526289
- Title: Beta-Sigma VAE: Separating beta and decoder variance in Gaussian variational autoencoder
- Title(参考訳): β-Sigma VAE:ガウス変分オートエンコーダにおけるベータとデコーダの分離
- Authors: Seunghwan Kim, Seungkyu Lee,
- Abstract要約: 変異オートエンコーダ(VAE)は確立された生成モデルであるが、その曖昧さで有名である。
本研究では、VAEのぼやけた出力問題を調査し、それを解決し、ガウスデコーダとベータVAEの$beta$の分散を利用した。
そこで本研究では,Beta-Sigma VAE (BS-VAE) を提案し,そのモデルで$beta$ と decoder の分散 $sigma2_x$ を明示的に分離する。
- 参考スコア(独自算出の注目度): 3.842994409438228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoder (VAE) is an established generative model but is notorious for its blurriness. In this work, we investigate the blurry output problem of VAE and resolve it, exploiting the variance of Gaussian decoder and $\beta$ of beta-VAE. Specifically, we reveal that the indistinguishability of decoder variance and $\beta$ hinders appropriate analysis of the model by random likelihood value, and limits performance improvement by omitting the gain from $\beta$. To address the problem, we propose Beta-Sigma VAE (BS-VAE) that explicitly separates $\beta$ and decoder variance $\sigma^2_x$ in the model. Our method demonstrates not only superior performance in natural image synthesis but also controllable parameters and predictable analysis compared to conventional VAE. In our experimental evaluation, we employ the analysis of rate-distortion curve and proxy metrics on computer vision datasets. The code is available on https://github.com/overnap/BS-VAE
- Abstract(参考訳): 変異オートエンコーダ(VAE)は確立された生成モデルであるが、その曖昧さで有名である。
本研究では、VAEのぼやけた出力問題を調査し、それを解決し、ガウス復号器とベータVAEの$\beta$の分散を利用した。
具体的には、デコーダのばらつきと$\beta$の不明瞭さは、確率的確率値によるモデルの適切な解析を妨げ、$\beta$の利得を省略して性能改善を制限することを明らかにした。
この問題に対処するために、モデルで$\beta$とdecoder variance$\sigma^2_x$を明示的に分離するBeta-Sigma VAE(BS-VAE)を提案する。
本手法は, 自然画像合成における性能だけでなく, 制御可能なパラメータや予測可能な解析も従来のVAEと比較して優れていることを示す。
実験的な評価では,コンピュータビジョンデータセット上での速度歪み曲線とプロキシメトリクスの分析を用いる。
コードはhttps://github.com/overnap/BS-VAEで入手できる。
関連論文リスト
- Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Training \beta-VAE by Aggregating a Learned Gaussian Posterior with a
Decoupled Decoder [0.553073476964056]
VAEトレーニングの現在の実践は、しばしば、再構成の忠実さと、潜伏空間の連続性$/$$分散の間のトレードオフをもたらす。
本稿では,2つの損失の対角的機構の直観と注意深い解析を行い,VAEを訓練するための簡易で効果的な2段階法を提案する。
本手法は, 3次元頭蓋骨再建と形状完成を目的とした医療データセットを用いて評価し, 提案手法を用いてトレーニングしたVAEの有望な生成能力を示す。
論文 参考訳(メタデータ) (2022-09-29T13:49:57Z) - Locality defeats the curse of dimensionality in convolutional
teacher-student scenarios [69.2027612631023]
学習曲線指数$beta$を決定する上で,局所性が重要であることを示す。
我々は、自然の仮定を用いて、トレーニングセットのサイズに応じて減少するリッジでカーネルレグレッションを実行すると、リッジレスの場合と同じような学習曲線指数が得られることを証明して結論付けた。
論文 参考訳(メタデータ) (2021-06-16T08:27:31Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Soft-IntroVAE: Analyzing and Improving the Introspective Variational
Autoencoder [23.04222873330133]
Soft-IntroVAEは、生成されたサンプルのスムーズな指数的損失でヒンジ損失項を置き換える修正されたIntroVAEです。
我々は、IntroVAEがデータ分布とエントロピー項からのKL距離の合計を最小化する分布に収束することを示した。
本稿では,非教師なし画像翻訳と分布外検出に対するsoft-introvaeの2つの応用について述べる。
論文 参考訳(メタデータ) (2020-12-24T13:53:29Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Unnormalized Variational Bayes [1.599072005190786]
非正規化密度を近似するために経験的ベイズと変分ベイズを統一する。
このフレームワークは非正規化変分ベイズ (unnormalized variational Bayes, UVB) と呼ばれ、確率変数 $Y=X+N(0,sigma2 I_d)$ の潜在変数モデルを定式化したものである。
論文 参考訳(メタデータ) (2020-07-29T21:58:54Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。