論文の概要: Fully Bayesian Autoencoders with Latent Sparse Gaussian Processes
- arxiv url: http://arxiv.org/abs/2302.04534v1
- Date: Thu, 9 Feb 2023 09:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:22:41.724018
- Title: Fully Bayesian Autoencoders with Latent Sparse Gaussian Processes
- Title(参考訳): 潜在スパースガウス過程をもつ完全ベイズ自動エンコーダ
- Authors: Ba-Hien Tran, Babak Shahbaba, Stephan Mandt, Maurizio Filippone
- Abstract要約: オートエンコーダとその変種は表現学習と生成モデリングにおいて最も広く使われているモデルの一つである。
ベイジアンオートエンコーダの潜在空間に完全スパースガウスプロセス先行を課す新しいスパースガウスプロセスベイジアンオートエンコーダモデルを提案する。
- 参考スコア(独自算出の注目度): 23.682509357305406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autoencoders and their variants are among the most widely used models in
representation learning and generative modeling. However, autoencoder-based
models usually assume that the learned representations are i.i.d. and fail to
capture the correlations between the data samples. To address this issue, we
propose a novel Sparse Gaussian Process Bayesian Autoencoder (SGPBAE) model in
which we impose fully Bayesian sparse Gaussian Process priors on the latent
space of a Bayesian Autoencoder. We perform posterior estimation for this model
via stochastic gradient Hamiltonian Monte Carlo. We evaluate our approach
qualitatively and quantitatively on a wide range of representation learning and
generative modeling tasks and show that our approach consistently outperforms
multiple alternatives relying on Variational Autoencoders.
- Abstract(参考訳): オートエンコーダとその変種は表現学習と生成モデリングにおいて最も広く使われているモデルの一つである。
しかし、オートエンコーダベースのモデルは通常、学習した表現はd.d.であり、データサンプル間の相関を捉えることができないと仮定する。
この問題に対処するために,我々は,ベイジアンオートエンコーダの潜在空間に先立って完全にベイジアンスパースガウス過程を課す,新しいスパースガウス過程ベイジアンオートエンコーダ(sgpbae)モデルを提案する。
確率勾配ハミルトニアンモンテカルロを用いてこのモデルの後方推定を行う。
提案手法は,表現学習および生成モデリングタスクの幅広い範囲において質的かつ定量的に評価し,変分オートコーダに依存する複数の選択肢を一貫して上回ることを示す。
関連論文リスト
- Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Laplacian Autoencoders for Learning Stochastic Representations [0.6999740786886537]
本稿では,非教師付き表現学習のためのベイズオートエンコーダを提案する。
我々のラプラシアオートエンコーダは、潜在空間と出力空間の両方において、よく校正された不確かさを推定する。
論文 参考訳(メタデータ) (2022-06-30T07:23:16Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Model Selection for Bayesian Autoencoders [25.619565817793422]
本稿では,オートエンコーダの出力と経験的データ分布との分散スライス-ワッサーシュタイン距離を最適化することを提案する。
我々のBAEは、フレキシブルなディリクレ混合モデルを潜在空間に適合させることにより、生成モデルに変換する。
我々は,教師なしの学習課題に対する膨大な実験的キャンペーンを質的かつ定量的に評価し,先行研究が重要となる小規模データ体制において,我々のアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-11T08:55:00Z) - Oops I Took A Gradient: Scalable Sampling for Discrete Distributions [53.3142984019796]
このアプローチは、多くの困難な設定において、ジェネリックサンプリングよりも優れていることを示す。
また,高次元離散データを用いた深部エネルギーモデルトレーニングのための改良型サンプリング器についても実演した。
論文 参考訳(メタデータ) (2021-02-08T20:08:50Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。