論文の概要: Bayesian Non-linear Latent Variable Modeling via Random Fourier Features
- arxiv url: http://arxiv.org/abs/2306.08352v1
- Date: Wed, 14 Jun 2023 08:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:49:00.367469
- Title: Bayesian Non-linear Latent Variable Modeling via Random Fourier Features
- Title(参考訳): ランダムフーリエ特徴を用いたベイズ非線形潜在変数モデリング
- Authors: Michael Minyi Zhang, Gregory W. Gundersen, Barbara E. Engelhardt
- Abstract要約: 一般化非線形潜在変数モデリングのためのマルコフ連鎖モンテカルロ推定法を提案する。
推論 forVM は、データ可能性がガウス的である場合にのみ、計算的に抽出可能である。
ポアソン, 負二項分布, 多項分布などの非ガウス観測にVMを一般化できることが示される。
- 参考スコア(独自算出の注目度): 7.856578780790166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Gaussian process latent variable model (GPLVM) is a popular probabilistic
method used for nonlinear dimension reduction, matrix factorization, and
state-space modeling. Inference for GPLVMs is computationally tractable only
when the data likelihood is Gaussian. Moreover, inference for GPLVMs has
typically been restricted to obtaining maximum a posteriori point estimates,
which can lead to overfitting, or variational approximations, which
mischaracterize the posterior uncertainty. Here, we present a method to perform
Markov chain Monte Carlo (MCMC) inference for generalized Bayesian nonlinear
latent variable modeling. The crucial insight necessary to generalize GPLVMs to
arbitrary observation models is that we approximate the kernel function in the
Gaussian process mappings with random Fourier features; this allows us to
compute the gradient of the posterior in closed form with respect to the latent
variables. We show that we can generalize GPLVMs to non-Gaussian observations,
such as Poisson, negative binomial, and multinomial distributions, using our
random feature latent variable model (RFLVM). Our generalized RFLVMs perform on
par with state-of-the-art latent variable models on a wide range of
applications, including motion capture, images, and text data for the purpose
of estimating the latent structure and imputing the missing data of these
complex data sets.
- Abstract(参考訳): ガウス過程潜在変数モデル(英: Gaussian process latent variable model、GPLVM)は、非線形次元の減少、行列分解、状態空間モデリングによく用いられる確率論的手法である。
gplvmsの推論は、データがガウス的である場合にのみ計算可能である。
さらに、gplvmsの推論は、一般的に、後方不確かさを誤認するオーバーフィッティングや変分近似につながる最大後方点推定を得るために制限されている。
本稿では,一般化ベイズ非線形潜在変数モデリングのためのマルコフ連鎖モンテカルロ(mcmc)推定を行う手法を提案する。
GPLVMを任意の観測モデルに一般化するために必要な重要な洞察は、ガウス過程写像におけるカーネル関数をランダムなフーリエ特徴と近似することである。
ランダム特徴潜時変数モデル(RFLVM)を用いて,ポアソン,負二項分布,多項分布などの非ガウス観測にGPLVMを一般化できることを示す。
一般化されたRFLVMは, 動作キャプチャ, 画像, テキストデータなど, 様々なアプリケーション上で, 最先端の潜伏変数モデルと同等に動作し, 潜伏構造を推定し, 複雑なデータセットの欠落データを出力する。
関連論文リスト
- von Mises Quasi-Processes for Bayesian Circular Regression [57.88921637944379]
円値ランダム関数上の表現的および解釈可能な分布の族を探索する。
結果の確率モデルは、統計物理学における連続スピンモデルと関係を持つ。
後続推論のために、高速マルコフ連鎖モンテカルロサンプリングに寄与するストラトノビッチのような拡張を導入する。
論文 参考訳(メタデータ) (2024-06-19T01:57:21Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Preventing Model Collapse in Gaussian Process Latent Variable Models [11.45681373843122]
本稿では,線形フーリエVMのレンズによるモデル崩壊に対する射影分散の影響を理論的に検討する。
我々は、スペクトル混合(SM)カーネルと微分可能乱数特徴(RFF)カーネル近似を統合することにより、カーネルの柔軟性が不十分なため、モデル崩壊に取り組む。
提案したVMは、アドバイスRFLVMと呼ばれ、さまざまなデータセットで評価され、さまざまな競合モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2024-04-02T06:58:41Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Generalised Gaussian Process Latent Variable Models (GPLVM) with
Stochastic Variational Inference [9.468270453795409]
ミニバッチ学習が可能なBayesianVMモデルの2倍の定式化について検討する。
このフレームワークが、異なる潜在変数の定式化とどのように互換性を持つかを示し、モデルの組を比較する実験を行う。
我々は、膨大な量の欠落データの存在下でのトレーニングと、高忠実度再構築の実施を実証する。
論文 参考訳(メタデータ) (2022-02-25T21:21:51Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Learning Nonparametric Volterra Kernels with Gaussian Processes [0.0]
本稿では、ガウス過程(GP)を用いて表現されたカーネルを持つボルテラ級数を用いて、非線形作用素の非パラメトリックベイズ学習法を提案する。
NVKMは、演算子への入力関数が観測されず、GP先行を持つとき、単出力と多重出力の両方の回帰のための強力な方法を構成し、非線形および非パラメトリック潜在力モデルと見なすことができる。
論文 参考訳(メタデータ) (2021-06-10T08:21:00Z) - Latent variable modeling with random features [7.856578780790166]
我々は非ガウス的データ可能性に容易に対応できる非線形次元減少モデルのファミリーを開発する。
我々の一般化されたRFLVMは、他の最先端の次元還元法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-06-19T14:12:05Z) - tvGP-VAE: Tensor-variate Gaussian Process Prior Variational Autoencoder [0.0]
tvGP-VAEはカーネル関数を使用して相関を明示的にモデル化することができる。
そこで本研究では,どの相関構造を潜在空間で明示的に表現するかの選択が,モデル性能に大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-06-08T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。