論文の概要: Shallow and Deep Nonparametric Convolutions for Gaussian Processes
- arxiv url: http://arxiv.org/abs/2206.08972v1
- Date: Fri, 17 Jun 2022 19:03:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:25:47.401959
- Title: Shallow and Deep Nonparametric Convolutions for Gaussian Processes
- Title(参考訳): ガウス過程の浅層および深層非パラメトリック畳み込み
- Authors: Thomas M. McDonald, Magnus Ross, Michael T. Smith, Mauricio A.
\'Alvarez
- Abstract要約: GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in the practical application of Gaussian processes (GPs) is
selecting a proper covariance function. The moving average, or process
convolutions, construction of GPs allows some additional flexibility, but still
requires choosing a proper smoothing kernel, which is non-trivial. Previous
approaches have built covariance functions by using GP priors over the
smoothing kernel, and by extension the covariance, as a way to bypass the need
to specify it in advance. However, such models have been limited in several
ways: they are restricted to single dimensional inputs, e.g. time; they only
allow modelling of single outputs and they do not scale to large datasets since
inference is not straightforward. In this paper, we introduce a nonparametric
process convolution formulation for GPs that alleviates these weaknesses by
using a functional sampling approach based on Matheron's rule to perform fast
sampling using interdomain inducing variables. Furthermore, we propose a
composition of these nonparametric convolutions that serves as an alternative
to classic deep GP models, and allows the covariance functions of the
intermediate layers to be inferred from the data. We test the performance of
our model on benchmarks for single output GPs, multiple output GPs and deep GPs
and find that in many cases our approach can provide improvements over standard
GP models.
- Abstract(参考訳): ガウス過程(gps)の実用的応用における重要な課題は、適切な共分散関数の選択である。
移動平均、あるいはプロセス畳み込みにより、gpsの構築は若干の柔軟性をもたらすが、それでも適切な平滑化カーネルを選択する必要がある。
従来のアプローチでは、スムーズなカーネル上のGPプリエントを用いて共分散関数を構築し、その共分散を前もって指定する必要を回避した。
しかし、そのようなモデルはいくつかの方法で制限されている: 時間のように単一の次元の入力に制限されている; 単一の出力のモデリングのみが可能であり、推論が単純ではないため、大規模なデータセットにスケールできない。
本稿では,GPの非パラメトリックプロセス畳み込み定式化を導入し,Matheronの法則に基づく関数型サンプリング手法を用いて,ドメイン間誘導変数を用いた高速サンプリングを行う。
さらに、古典的な深層GPモデルの代替として機能するこれらの非パラメトリック畳み込みの合成を提案し、中間層の共分散関数をデータから推測できるようにする。
単出力GP,複数出力GP,深部GPのベンチマークにおいて,本モデルの性能を検証した結果,標準GPモデルよりも優れた手法が得られた。
関連論文リスト
- FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Deep Gaussian Process Emulation using Stochastic Imputation [0.0]
本稿では,命令を用いた計算機モデルエミュレーションのための新しいディープガウス過程 (DGP) 推論法を提案する。
この手法は、遅延層を強制的に命令することで、DGPをリンクされたGPに変換し、これは、フィードフォワード結合GPの系をリンクすることによって形成される最先端の代理モデルである。
論文 参考訳(メタデータ) (2021-07-04T10:46:23Z) - MuyGPs: Scalable Gaussian Process Hyperparameter Estimation Using Local
Cross-Validation [1.2233362977312945]
本稿では,新しいGPハイパーパラメータ推定法であるMuyGPを提案する。
MuyGPsは、データの最も近い隣人構造を利用する事前のメソッドの上に構築される。
提案手法は, 解法と予測値の平均二乗誤差の両方において, 既知の競合よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-29T18:10:21Z) - Transforming Gaussian Processes With Normalizing Flows [15.886048234706633]
パラメトリックな非可逆変換を入力依存にし、解釈可能な事前知識を符号化できることを示す。
結果の推測問題に対する変分近似を導出するが、これは変分GP回帰と同じくらい高速である。
得られたアルゴリズムの計算性能と推論性能は優れており,これを様々なデータセットで示す。
論文 参考訳(メタデータ) (2020-11-03T09:52:37Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。