論文の概要: Exponentially Tilted Gaussian Prior for Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2111.15646v1
- Date: Tue, 30 Nov 2021 18:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 14:14:47.101939
- Title: Exponentially Tilted Gaussian Prior for Variational Autoencoder
- Title(参考訳): 変分オートエンコーダの指数傾斜ガウス前置法
- Authors: Griffin Floto and Stefan Kremer and Mihai Nica
- Abstract要約: 近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
- 参考スコア(独自算出の注目度): 3.52359746858894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important propertyfor deep neural networks to possess is the ability to
perform robust out of distribution detection (OOD) on previously unseen data.
This property is essential for safety purposes when deploying models for real
world applications. Recent studies show that probabilistic generative models
can perform poorly on this task, which is surprising given that they seek to
estimate the likelihood of training data. To alleviate this issue, we propose
the exponentially tilted Gaussian prior distribution for the Variational
Autoencoder (VAE). With this prior, we are able to achieve state-of-the art
results using just the negative log likelihood that the VAE naturally assigns,
while being orders of magnitude faster than some competitive methods. We also
show that our model produces high quality image samples which are more crisp
than that of a standard Gaussian VAE. The new prior distribution has a very
simple implementation which uses a Kullback Leibler divergence that compares
the difference between a latent vector's length, and the radius of a sphere.
- Abstract(参考訳): 深層ニューラルネットワークが持つ重要な特性は、これまで見つからなかったデータに対して、ロバストなout of distribution detection(ood)を実行する能力である。
この特性は、現実世界のアプリケーションのためにモデルをデプロイする場合の安全性に不可欠である。
近年の研究では、確率的生成モデルは、このタスクで不十分に動作できることが示されており、トレーニングデータの可能性を見積もることを考えると驚きである。
この問題を軽減するために,変分オートエンコーダ (vae) の指数的に傾いたガウス事前分布を提案する。
この先行で、VAEが自然に割り当てる負のログ可能性のみを用いて、最先端の成果を達成できますが、いくつかの競合メソッドよりも桁違いに高速です。
また,本モデルでは,標準ガウスのvaeよりも鮮明な高品質な画像サンプルを生成できることを示した。
新しい事前分布は、潜在ベクトルの長さと球面半径との差を比較する、kullback leibler divergenceを用いた非常に単純な実装を持つ。
関連論文リスト
- Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - LDC-VAE: A Latent Distribution Consistency Approach to Variational
AutoEncoders [26.349085280990657]
本稿では, 後部分布と前部分布の矛盾を回避するために, 潜時分布整合性アプローチを提案する。
我々の手法は、VAEの強力な改善よりも、同等またはさらに優れた性能を実現している。
論文 参考訳(メタデータ) (2021-09-22T10:34:40Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - Reducing the Amortization Gap in Variational Autoencoders: A Bayesian
Random Function Approach [38.45568741734893]
GPモデルの推論は、セミアモタイズ法よりもはるかに高速な1つのフィードフォワードパスによって行われる。
提案手法は,複数のベンチマークデータセットの最先端データよりも高い確率でテストデータが得られることを示す。
論文 参考訳(メタデータ) (2021-02-05T13:01:12Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。