論文の概要: Wasserstein-Splitting Gaussian Process Regression for Heterogeneous
Online Bayesian Inference
- arxiv url: http://arxiv.org/abs/2107.12797v1
- Date: Mon, 26 Jul 2021 17:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 05:28:30.429665
- Title: Wasserstein-Splitting Gaussian Process Regression for Heterogeneous
Online Bayesian Inference
- Title(参考訳): wasserstein-splitting gaussian process regression for hetero online bayesian inference
- Authors: Michael E. Kepler, Alec Koppel, Amrit Singh Bedi, and Daniel J.
Stilwell
- Abstract要約: 我々は,オンライン予測伝搬ステップと連動して動作するGPの変動自由エネルギー近似を用いる。
後続分布が大きく変化するたびに新しいGPをインスタンス化する局所分割ステップを導入する。
時間の経過とともに、これは徐々に更新されるかもしれないスパースGPのアンサンブルをもたらす。
- 参考スコア(独自算出の注目度): 9.7471390457395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian processes (GPs) are a well-known nonparametric Bayesian inference
technique, but they suffer from scalability problems for large sample sizes,
and their performance can degrade for non-stationary or spatially heterogeneous
data. In this work, we seek to overcome these issues through (i) employing
variational free energy approximations of GPs operating in tandem with online
expectation propagation steps; and (ii) introducing a local splitting step
which instantiates a new GP whenever the posterior distribution changes
significantly as quantified by the Wasserstein metric over posterior
distributions. Over time, then, this yields an ensemble of sparse GPs which may
be updated incrementally, and adapts to locality, heterogeneity, and
non-stationarity in training data.
- Abstract(参考訳): ガウス過程(GP)はよく知られた非パラメトリックベイズ推論手法であるが、大きなサンプルサイズに対するスケーラビリティの問題に悩まされ、その性能は非定常あるいは空間的に不均一なデータに対して低下する可能性がある。
本研究では, (i) オンライン期待伝播ステップと連動して動作するgpsの変動自由エネルギー近似と, (ii) 後方分布がワッサースタイン計量によって定量化されるほど大きく変化するたびに新しいgpをインスタンス化する局所分割ステップを導入することにより, これらの問題を克服する。
時間とともに、これはスパースGPの集合となり、漸進的に更新され、トレーニングデータの局所性、不均一性、非定常性に適応する。
関連論文リスト
- Theoretical Analysis of Heteroscedastic Gaussian Processes with Posterior Distributions [0.4895118383237099]
本研究ではヘテロセダスティックガウス過程(HGP)を解析するための新しい理論的枠組みを紹介する。
後部分布の正確な方法、分散、累積分布を導出する。
得られた理論的知見は、確率制約付きトラッキングコントローラに適用される。
論文 参考訳(メタデータ) (2024-09-19T09:51:46Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Deep Horseshoe Gaussian Processes [1.0742675209112622]
直交指数核を持つディープ・ガウス過程に基づく新しい単純前処理であるディープ・ホースシュー・ガウス過程(Deep Horseshoe Gaussian process)を紹介する。
本研究は、2次損失から対数係数まで、未知の真の回帰曲線を最適に復元することを示す。
論文 参考訳(メタデータ) (2024-03-04T05:30:43Z) - Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Non-Gaussian Process Regression [0.0]
我々はGPフレームワークを時間変化したGPの新たなクラスに拡張し、重い尾の非ガウス的振る舞いの簡単なモデリングを可能にする。
このモデルに対するマルコフ連鎖モンテカルロ推論手順を示し、潜在的な利点を実証する。
論文 参考訳(メタデータ) (2022-09-07T13:08:22Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Minibatch vs Local SGD with Shuffling: Tight Convergence Bounds and
Beyond [63.59034509960994]
シャッフルに基づく変種(ミニバッチと局所ランダムリシャッフル)について検討する。
ポリアック・ロジャシエヴィチ条件を満たす滑らかな函数に対して、これらのシャッフル型不変量(英語版)(shuffling-based variants)がそれらの置換式よりも早く収束することを示す収束境界を得る。
我々は, 同期シャッフル法と呼ばれるアルゴリズムの修正を提案し, ほぼ均一な条件下では, 下界よりも収束速度が速くなった。
論文 参考訳(メタデータ) (2021-10-20T02:25:25Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Deep Sigma Point Processes [22.5396672566053]
ディープガウス過程(DGP)の構成構造から着想を得たパラメトリックモデルのクラスを導入する。
ディープシグマポイントプロセス(DSPP)は、カーネル基底関数によって制御されるミニバッチトレーニングや予測不確実性を含む、(可変)DGPの魅力的な特徴の多くを保持している。
論文 参考訳(メタデータ) (2020-02-21T03:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。