論文の概要: Probabilistic Autoencoder
- arxiv url: http://arxiv.org/abs/2006.05479v4
- Date: Mon, 19 Sep 2022 15:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:09:26.522093
- Title: Probabilistic Autoencoder
- Title(参考訳): 確率的オートエンコーダ
- Authors: Vanessa B\"ohm and Uro\v{s} Seljak
- Abstract要約: 正規化フロー(NF)を用いてAE潜時空間重みの確率分布を学習する確率論的自己エンコーダ(PAE)を導入する。
PAEは高速で訓練が容易で、小さな再構成エラー、高いサンプル品質、下流タスクでの優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principal Component Analysis (PCA) minimizes the reconstruction error given a
class of linear models of fixed component dimensionality. Probabilistic PCA
adds a probabilistic structure by learning the probability distribution of the
PCA latent space weights, thus creating a generative model. Autoencoders (AE)
minimize the reconstruction error in a class of nonlinear models of fixed
latent space dimensionality and outperform PCA at fixed dimensionality. Here,
we introduce the Probabilistic Autoencoder (PAE) that learns the probability
distribution of the AE latent space weights using a normalizing flow (NF). The
PAE is fast and easy to train and achieves small reconstruction errors, high
sample quality, and good performance in downstream tasks. We compare the PAE to
Variational AE (VAE), showing that the PAE trains faster, reaches a lower
reconstruction error, and produces good sample quality without requiring
special tuning parameters or training procedures. We further demonstrate that
the PAE is a powerful model for performing the downstream tasks of
probabilistic image reconstruction in the context of Bayesian inference of
inverse problems for inpainting and denoising applications. Finally, we
identify latent space density from NF as a promising outlier detection metric.
- Abstract(参考訳): 主成分分析 (pca) は固定成分次元の線形モデルに与えられた再構成誤差を最小化する。
確率的PCAは、PCA潜在空間重みの確率分布を学習して確率的構造を加え、生成モデルを作成する。
オートエンコーダ(AE)は、固定された潜在空間次元の非線形モデルのクラスにおける再構成誤差を最小化し、固定された次元でのPCAよりも優れる。
本稿では,正規化フロー(nf)を用いてae潜時空間重みの確率分布を学習する確率的オートエンコーダ(pae)を提案する。
PAEは高速で訓練が容易で、小さな再構成エラー、高いサンプル品質、下流タスクのパフォーマンス向上を実現している。
PAE と変分AE (VAE) を比較し,PAE の訓練速度が速く,再現誤差が低く,特別なチューニングパラメータや訓練手順を必要とせず,優れたサンプル品質が得られることを示した。
さらに, pae は, 可逆問題に対するベイズ推定の文脈において, 確率的画像再構成の下流課題を実行するための強力なモデルであることを示した。
最後に,NFから潜在空間密度を有望な外れ値検出指標として同定する。
関連論文リスト
- Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Bayesian tomography using polynomial chaos expansion and deep generative
networks [0.0]
可変オートエンコーダ(VAE)の優れた再構成性能とPCA-PCEサロゲートモデリングの精度を組み合わせた戦略を提案する。
MCMCプロセス内では、VOEのパラメトリゼーションが事前の探査とサンプル提案に利用される。
論文 参考訳(メタデータ) (2023-07-09T16:44:37Z) - Matching Normalizing Flows and Probability Paths on Manifolds [57.95251557443005]
連続正規化フロー (Continuous Normalizing Flows, CNFs) は、常微分方程式(ODE)を解くことによって、先行分布をモデル分布に変換する生成モデルである。
我々は,CNFが生成する確率密度パスと目標確率密度パスとの間に生じる新たな分岐系であるPPDを最小化して,CNFを訓練することを提案する。
PPDの最小化によって得られたCNFは、既存の低次元多様体のベンチマークにおいて、その可能性とサンプル品質が得られることを示す。
論文 参考訳(メタデータ) (2022-07-11T08:50:19Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders [0.0]
本研究は,非線形次元低減のための変分オートエンコーダ (VAE) の利用について検討する。
不整合分解は解釈可能であり、生成的モデリングを含む様々なタスクに転送することができる。
論文 参考訳(メタデータ) (2021-09-15T16:02:43Z) - P-WAE: Generalized Patch-Wasserstein Autoencoder for Anomaly Screening [17.24628770042803]
Patch-wise Wasserstein AutoEncoder (P-WAE) アーキテクチャを提案する。
特に、ジグソーパズルの解法と結合したパッチワイド変分推論モデルを設計する。
MVTec ADデータセットを用いた総合的な実験は、我々のプロポの優れた性能を実証する。
論文 参考訳(メタデータ) (2021-08-09T05:31:45Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Unbiased Gradient Estimation for Variational Auto-Encoders using Coupled
Markov Chains [34.77971292478243]
変分オートエンコーダ(VAE)は、オートエンコーダのようなアーキテクチャで2つのニューラルネットワークを持つ、潜伏変数モデルである。
ログ型勾配の偏りのない推定器を導入することにより,VAEのトレーニング手法を開発する。
偏りのない推定器を装着したVAEは予測性能が向上することを示した。
論文 参考訳(メタデータ) (2020-10-05T08:11:55Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。