論文の概要: Sparse Gaussian Process Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2010.10177v2
- Date: Fri, 23 Oct 2020 10:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 05:36:18.380197
- Title: Sparse Gaussian Process Variational Autoencoders
- Title(参考訳): スパースガウス過程変分オートエンコーダ
- Authors: Matthew Ashman, Jonathan So, Will Tebbutt, Vincent Fortuin, Michael
Pearce, Richard E. Turner
- Abstract要約: 既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
- 参考スコア(独自算出の注目度): 24.86751422740643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large, multi-dimensional spatio-temporal datasets are omnipresent in modern
science and engineering. An effective framework for handling such data are
Gaussian process deep generative models (GP-DGMs), which employ GP priors over
the latent variables of DGMs. Existing approaches for performing inference in
GP-DGMs do not support sparse GP approximations based on inducing points, which
are essential for the computational efficiency of GPs, nor do they handle
missing data -- a natural occurrence in many spatio-temporal datasets -- in a
principled manner. We address these shortcomings with the development of the
sparse Gaussian process variational autoencoder (SGP-VAE), characterised by the
use of partial inference networks for parameterising sparse GP approximations.
Leveraging the benefits of amortised variational inference, the SGP-VAE enables
inference in multi-output sparse GPs on previously unobserved data with no
additional training. The SGP-VAE is evaluated in a variety of experiments where
it outperforms alternative approaches including multi-output GPs and structured
VAEs.
- Abstract(参考訳): 大規模で多次元の時空間データセットは、現代の科学と工学において一様である。
このようなデータを扱うための効果的なフレームワークとして、GP-DGM(Gaussian Process Deep Generative Model)がある。
既存のGP-DGMでの推論のアプローチでは、GPの計算効率に不可欠なインジェクションポイントに基づくスパースGP近似をサポートしない。
本稿では,スパースGP近似のパラメータ化に部分推論ネットワークを用いることで特徴付けられる,スパースプロセス変分オートエンコーダ(SGP-VAE)の開発に伴うこれらの欠点に対処する。
償却変分推論の利点を生かして、SGP-VAEは、事前観測されていないデータに対して、追加のトレーニングなしでマルチ出力スパースGPでの推論を可能にする。
SGP-VAEは、マルチ出力GPや構造化VAEなど、様々な実験で評価されている。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Linear Time GPs for Inferring Latent Trajectories from Neural Spike
Trains [7.936841911281107]
我々は,Hida-Mat'ernカーネルと共役変分推論(CVI)を利用した潜在GPモデルの一般的な推論フレームワークであるcvHMを提案する。
我々は任意の確率で線形時間複雑性を持つ潜在神経軌道の変分推定を行うことができる。
論文 参考訳(メタデータ) (2023-06-01T16:31:36Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Weighted Ensembles for Active Learning with Adaptivity [60.84896785303314]
本稿では,ラベル付きデータに漸進的に適応した重み付きGPモデルのアンサンブルについて述べる。
この新しいEGPモデルに基づいて、不確実性および不一致ルールに基づいて、一連の取得関数が出現する。
適応的に重み付けされたEGPベースの取得関数のアンサンブルも、さらなる性能向上のために導入されている。
論文 参考訳(メタデータ) (2022-06-10T11:48:49Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Modulating Scalable Gaussian Processes for Expressive Statistical
Learning [25.356503463916816]
ガウス過程(GP)は、入力と出力の間の統計的関係を学ぶことに興味がある。
本稿では,非定常ヘテロセダスティックGP,GPと潜在GPの混合を含む,スケーラブルなGPパラダイムについて検討し,よりリッチでガウス的でない統計表現を学習するために,出力や入力を変調する潜在変数を導入する。
論文 参考訳(メタデータ) (2020-08-29T06:41:45Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。