論文の概要: Non-Gaussian Gaussian Processes for Few-Shot Regression
- arxiv url: http://arxiv.org/abs/2110.13561v1
- Date: Tue, 26 Oct 2021 10:45:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 23:26:58.183100
- Title: Non-Gaussian Gaussian Processes for Few-Shot Regression
- Title(参考訳): Few-Shot回帰のための非ガウスガウス過程
- Authors: Marcin Sendera, Jacek Tabor, Aleksandra Nowak, Andrzej Bedychaj,
Massimiliano Patacchiola, Tomasz Trzci\'nski, Przemys{\l}aw Spurek, Maciej
Zi\k{e}ba
- Abstract要約: 乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 71.33730039795921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian Processes (GPs) have been widely used in machine learning to model
distributions over functions, with applications including multi-modal
regression, time-series prediction, and few-shot learning. GPs are particularly
useful in the last application since they rely on Normal distributions and
enable closed-form computation of the posterior probability function.
Unfortunately, because the resulting posterior is not flexible enough to
capture complex distributions, GPs assume high similarity between subsequent
tasks - a requirement rarely met in real-world conditions. In this work, we
address this limitation by leveraging the flexibility of Normalizing Flows to
modulate the posterior predictive distribution of the GP. This makes the GP
posterior locally non-Gaussian, therefore we name our method Non-Gaussian
Gaussian Processes (NGGPs). More precisely, we propose an invertible ODE-based
mapping that operates on each component of the random variable vectors and
shares the parameters across all of them. We empirically tested the flexibility
of NGGPs on various few-shot learning regression datasets, showing that the
mapping can incorporate context embedding information to model different noise
levels for periodic functions. As a result, our method shares the structure of
the problem between subsequent tasks, but the contextualization allows for
adaptation to dissimilarities. NGGPs outperform the competing state-of-the-art
approaches on a diversified set of benchmarks and applications.
- Abstract(参考訳): ガウス過程(GP)は、多モード回帰、時系列予測、少数ショット学習を含む、関数上の分布をモデル化するために機械学習で広く使われている。
GPは正規分布に依存し、後続確率関数の閉形式計算を可能にするため、最後のアプリケーションでは特に有用である。
残念ながら、結果として生じる後部は複雑な分布を捉えるのに十分な柔軟性がないため、GPはその後のタスクと高い類似性を仮定する。
本研究では,GPの後方予測分布を変調するために正規化フローの柔軟性を活用することで,この制限に対処する。
したがって、GP は局所的に非ガウス過程(英語版)(Non-Gaussian Gaussian Processes,NGGPs)と呼ばれる。
より正確には、確率変数ベクトルの各成分上で動作し、それらのパラメータを全て共有する可逆 ode-based mapping を提案する。
我々はnggpsの柔軟性を多種多種多様なマイズショット学習回帰データセットで実証的に検証し,周期関数の異なるノイズレベルをモデル化するためにコンテキスト埋め込み情報を組み込むことができることを示した。
その結果,本手法はタスク間の問題構造を共有するが,文脈化により相似性への適応が可能となる。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れている。
関連論文リスト
- Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Non-Gaussian Process Regression [0.0]
我々はGPフレームワークを時間変化したGPの新たなクラスに拡張し、重い尾の非ガウス的振る舞いの簡単なモデリングを可能にする。
このモデルに対するマルコフ連鎖モンテカルロ推論手順を示し、潜在的な利点を実証する。
論文 参考訳(メタデータ) (2022-09-07T13:08:22Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Sequential Gaussian Processes for Online Learning of Nonstationary
Functions [9.997259201098602]
連続モンテカルロアルゴリズムは,オンラインの分散推論を可能としながら,非定常挙動を捉えたGPの無限混合に適合する。
提案手法は,時系列データにおける非定常性の存在下でのオンラインGP推定における最先端手法の性能を実証的に改善する。
論文 参考訳(メタデータ) (2019-05-24T02:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。