論文の概要: Improving Hyperparameter Learning under Approximate Inference in
Gaussian Process Models
- arxiv url: http://arxiv.org/abs/2306.04201v1
- Date: Wed, 7 Jun 2023 07:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 15:47:45.509864
- Title: Improving Hyperparameter Learning under Approximate Inference in
Gaussian Process Models
- Title(参考訳): ガウス過程モデルにおける近似推論によるハイパーパラメータ学習の改善
- Authors: Rui Li, ST John, Arno Solin
- Abstract要約: 本研究では,変分推論(VI)と学習目標との相互作用に着目した。
我々は、共役計算VIを推論に利用するハイブリッドトレーニング手順を設計する。
我々は、幅広いデータセットで提案の有効性を実証的に実証した。
- 参考スコア(独自算出の注目度): 18.134776677795077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Approximate inference in Gaussian process (GP) models with non-conjugate
likelihoods gets entangled with the learning of the model hyperparameters. We
improve hyperparameter learning in GP models and focus on the interplay between
variational inference (VI) and the learning target. While VI's lower bound to
the marginal likelihood is a suitable objective for inferring the approximate
posterior, we show that a direct approximation of the marginal likelihood as in
Expectation Propagation (EP) is a better learning objective for hyperparameter
optimization. We design a hybrid training procedure to bring the best of both
worlds: it leverages conjugate-computation VI for inference and uses an EP-like
marginal likelihood approximation for hyperparameter learning. We compare VI,
EP, Laplace approximation, and our proposed training procedure and empirically
demonstrate the effectiveness of our proposal across a wide range of data sets.
- Abstract(参考訳): 非共役確率を持つガウス過程(GP)モデルにおける近似推論は、モデルハイパーパラメータの学習と絡み合う。
GPモデルのハイパーパラメータ学習を改善し,変動推論(VI)と学習対象との相互作用に着目した。
vi の限界確率に対する下限は近似後段を推定するための適切な目的である一方、期待伝播 (ep) における限界確率の直接近似はハイパーパラメータ最適化のためのより良い学習目標であることを示す。
共役計算VIを推論に利用し、EPライクな辺縁確率近似を用いてハイパーパラメータ学習を行うハイブリッドトレーニング手順を設計する。
我々は、VI, EP, Laplace近似と、提案したトレーニング手順を比較し、幅広いデータセットにおける提案の有効性を実証的に示す。
関連論文リスト
- Efficient Learning of POMDPs with Known Observation Model in Average-Reward Setting [56.92178753201331]
我々は,POMDPパラメータを信念に基づくポリシを用いて収集したサンプルから学習することのできる観測・認識スペクトル(OAS)推定手法を提案する。
提案するOAS-UCRLアルゴリズムに対して,OASプロシージャの整合性を示し,$mathcalO(sqrtT log(T)$の残差保証を証明した。
論文 参考訳(メタデータ) (2024-10-02T08:46:34Z) - Fully Bayesian Differential Gaussian Processes through Stochastic Differential Equations [7.439555720106548]
本稿では、カーネルハイパーパラメータを確率変数として扱い、結合微分方程式(SDE)を構築して、その後部分布と誘導点を学習する完全ベイズ的手法を提案する。
提案手法は,SDE法による結合変数による時間変化,包括的,現実的な後部近似を提供する。
我々の研究はベイズ的推論を推し進めるためのエキサイティングな研究の道を開き、継続的なガウス的プロセスのための強力なモデリングツールを提供する。
論文 参考訳(メタデータ) (2024-08-12T11:41:07Z) - Nonparametric Automatic Differentiation Variational Inference with
Spline Approximation [7.5620760132717795]
複雑な構造を持つ分布に対するフレキシブルな後続近似を可能にする非パラメトリック近似法を開発した。
広く使われている非パラメトリック推論手法と比較して,提案手法は実装が容易であり,様々なデータ構造に適応する。
実験では, 複雑な後続分布の近似における提案手法の有効性を実証し, 不完全データを用いた生成モデルの性能向上を図った。
論文 参考訳(メタデータ) (2024-03-10T20:22:06Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Towards Improved Learning in Gaussian Processes: The Best of Two Worlds [18.134776677795077]
本研究では,共役計算VIを用いたハイブリッド学習手法を設計し,EPのような余剰確率近似を用いて学習を行う。
我々は、二項分類が優れた学習目標を提供し、より良い一般化をもたらすことを実証的に実証した。
論文 参考訳(メタデータ) (2022-11-11T15:04:10Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Meta-Learning Divergences of Variational Inference [49.164944557174294]
変分推論(VI)は、近似ベイズ推論において重要な役割を果たす。
本稿では,興味ある課題に適した分散度を学習するためのメタ学習アルゴリズムを提案する。
提案手法はガウス混合分布近似の標準VIより優れていることを示す。
論文 参考訳(メタデータ) (2020-07-06T17:43:01Z) - Sparse Gaussian Processes Revisited: Bayesian Approaches to
Inducing-Variable Approximations [27.43948386608]
変数の誘導に基づく変分推論手法はガウス過程(GP)モデルにおけるスケーラブルな推定のためのエレガントなフレームワークを提供する。
この研究において、変分フレームワークにおけるインプットの最大化は最適な性能をもたらすという共通の知恵に挑戦する。
論文 参考訳(メタデータ) (2020-03-06T08:53:18Z) - Approximate Inference for Fully Bayesian Gaussian Process Regression [11.47317712333228]
ガウス過程モデルにおける学習は、平均と共分散関数のハイパーパラメータの適応を通じて起こる。
textitFully Bayesian Process Regression (GPR) と呼ぶGPの階層的仕様において、後方超過パラメータを推論する別の学習方法がある。
ベンチマークデータセットを用いてベイズGPRの予測性能を解析する。
論文 参考訳(メタデータ) (2019-12-31T17:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。