論文の概要: Variational Autoencoders with Riemannian Brownian Motion Priors
- arxiv url: http://arxiv.org/abs/2002.05227v3
- Date: Fri, 7 Aug 2020 16:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:29:39.616937
- Title: Variational Autoencoders with Riemannian Brownian Motion Priors
- Title(参考訳): Riemannian Brownian Motion Priors を用いた変分オートエンコーダ
- Authors: Dimitris Kalatzis, David Eklund, Georgios Arvanitidis, S{\o}ren
Hauberg
- Abstract要約: 変分オートエンコーダ(VAEs)は、一般にユークリッドであると仮定される低次元の潜在空間における与えられたデータを表す。
最近の研究は、この前はモデルキャパシティに有害な影響があり、性能が劣ることを示している。
本稿では、この前の未知の正規化因子に依存しない効率的な推論手法を提案する。
- 参考スコア(独自算出の注目度): 4.8461049669050915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) represent the given data in a low-dimensional
latent space, which is generally assumed to be Euclidean. This assumption
naturally leads to the common choice of a standard Gaussian prior over
continuous latent variables. Recent work has, however, shown that this prior
has a detrimental effect on model capacity, leading to subpar performance. We
propose that the Euclidean assumption lies at the heart of this failure mode.
To counter this, we assume a Riemannian structure over the latent space, which
constitutes a more principled geometric view of the latent codes, and replace
the standard Gaussian prior with a Riemannian Brownian motion prior. We propose
an efficient inference scheme that does not rely on the unknown normalizing
factor of this prior. Finally, we demonstrate that this prior significantly
increases model capacity using only one additional scalar parameter.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、一般にユークリッドであると仮定される低次元潜在空間における与えられたデータを表す。
この仮定は自然に連続潜在変数よりも標準ガウス事前の共通選択につながる。
しかし,近年の研究では,モデルキャパシティが低下し,サブパー性能が低下することが示されている。
我々は、ユークリッドの仮定がこの障害モードの中心にあることを示唆する。
これに対応するために、より原理化された潜在符号の幾何学的ビューを構成する潜在空間上のリーマン構造を仮定し、それ以前の標準ガウス構造をリーマンブラウン運動に置き換える。
本稿では、この前の未知の正規化因子に依存しない効率的な推論手法を提案する。
最後に,1つのスカラーパラメータのみを用いることで,モデルキャパシティが大幅に向上することが実証された。
関連論文リスト
- A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Convex Parameter Estimation of Perturbed Multivariate Generalized
Gaussian Distributions [18.95928707619676]
本稿では,MGGDパラメータの確立された特性を持つ凸定式化を提案する。
提案するフレームワークは, 精度行列, 平均, 摂動の様々な正規化を組み合わせ, 柔軟である。
実験により, 平均ベクトルパラメータに対して, 同様の性能でより正確な精度と共分散行列推定を行うことができた。
論文 参考訳(メタデータ) (2023-12-12T18:08:04Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - The Choice of Noninformative Priors for Thompson Sampling in
Multiparameter Bandit Models [56.31310344616837]
トンプソンサンプリング(TS)は、様々な報酬モデルにまたがる理論的な保証によって支持される卓越した経験的性能で知られている。
本研究では,理論的理解の欠如のある新しいモデルを扱う際に,非形式的事前選択がTSの性能に与える影響について考察する。
論文 参考訳(メタデータ) (2023-02-28T08:42:42Z) - Differentially private Riemannian optimization [40.23168342389821]
微分プライベートの枠組みを導入する。
現実的なリスクの問題です。
パラメータは a に制約される。
ロックフェラー多様体。
提案手法の有効性をいくつかの応用例で示す。
論文 参考訳(メタデータ) (2022-05-19T12:04:15Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Dimension-robust Function Space MCMC With Neural Network Priors [0.0]
本稿では、関数の領域の次元においてより有利にスケールする関数空間に関する新しい先例を紹介する。
その結果得られた未知関数の後方は、ヒルベルト空間マルコフ連鎖モンテカルロ法を用いてサンプリングできることがわかった。
我々の優先順位は競争的であり、他の関数空間よりも異なる利点があることを示している。
論文 参考訳(メタデータ) (2020-12-20T14:52:57Z) - Dynamic sparsity on dynamic regression models [0.0]
ベイズフレームワーク内のガウス動的線形回帰に対する変数選択と縮小について考察する。
本稿では,動的モデルに対するスパイク・アンド・スラブ先行値の拡張に基づく,時間変化の空間性を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-29T16:26:08Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - tvGP-VAE: Tensor-variate Gaussian Process Prior Variational Autoencoder [0.0]
tvGP-VAEはカーネル関数を使用して相関を明示的にモデル化することができる。
そこで本研究では,どの相関構造を潜在空間で明示的に表現するかの選択が,モデル性能に大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-06-08T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。