論文の概要: Sparse Gaussian Process Based On Hat Basis Functions
- arxiv url: http://arxiv.org/abs/2006.08117v1
- Date: Mon, 15 Jun 2020 03:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:48:25.214486
- Title: Sparse Gaussian Process Based On Hat Basis Functions
- Title(参考訳): ハット基底関数に基づくスパースガウス過程
- Authors: Wenqi Fang, Huiyun Li, Hui Huang, Shaobo Dang, Zhejun Huang, Zheng
Wang
- Abstract要約: 制約のない回帰問題を解くために,新しいスパースガウス法を提案する。
提案手法は, 計算複雑性を正確なガウス過程において$O(n3)$から$O(nm2)$に減らし, $m$のハット基底関数と$n$のトレーニングデータポイントを備える。
- 参考スコア(独自算出の注目度): 14.33021332215823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian process is one of the most popular non-parametric Bayesian
methodologies for modeling the regression problem. It is completely determined
by its mean and covariance functions. And its linear property makes it
relatively straightforward to solve the prediction problem. Although Gaussian
process has been successfully applied in many fields, it is still not enough to
deal with physical systems that satisfy inequality constraints. This issue has
been addressed by the so-called constrained Gaussian process in recent years.
In this paper, we extend the core ideas of constrained Gaussian process.
According to the range of training or test data, we redefine the hat basis
functions mentioned in the constrained Gaussian process. Based on hat basis
functions, we propose a new sparse Gaussian process method to solve the
unconstrained regression problem. Similar to the exact Gaussian process and
Gaussian process with Fully Independent Training Conditional approximation, our
method obtains satisfactory approximate results on open-source datasets or
analytical functions. In terms of performance, the proposed method reduces the
overall computational complexity from $O(n^{3})$ computation in exact Gaussian
process to $O(nm^{2})$ with $m$ hat basis functions and $n$ training data
points.
- Abstract(参考訳): ガウス過程は回帰問題をモデル化する最も一般的な非パラメトリックベイズ法の一つである。
それはその平均と共分散関数によって完全に決定される。
その線形性は予測問題を比較的簡単に解くことができる。
ガウス過程は多くの分野でうまく適用されているが、不等式制約を満たす物理系を扱うには十分ではない。
この問題は近年、いわゆる制約付きガウス過程によって解決されている。
本稿では,制約付きガウス過程の核となる考え方を拡張する。
トレーニングやテストデータの範囲に応じて、制約付きガウスプロセスで言及されるハット基底関数を再定義します。
ハット基底関数に基づいて,制約のない回帰問題を解くための新しい疎ガウス過程法を提案する。
完全独立訓練条件近似による正確なガウス過程やガウス過程と同様、オープンソースのデータセットや解析関数に対して良好な近似結果が得られる。
性能の面では、提案手法は計算の全体的な複雑さを、正確なガウス過程における$O(n^{3})$計算から$O(nm^{2})$に減らし、$m$のハット基底関数と$n$のトレーニングデータポイントを持つ。
関連論文リスト
- Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Scale invariant process regression [0.0]
本稿では,カーネル,長さスケール,分散,事前平均の指定を必要としない新しい回帰手法を提案する。
実験の結果,正規性とスケール・アンド・トランスフォーメーションの不変性のみを仮定することで,作業機械学習手法の導出が可能であることが示唆された。
論文 参考訳(メタデータ) (2022-08-22T17:32:33Z) - On the inability of Gaussian process regression to optimally learn
compositional functions [3.6525095710982916]
深いガウス過程の先行は、対象関数が構成構造を持つ場合、ガウス過程の先行よりも優れる。
真の函数が一般化加法関数であれば、任意の平均零ガウス過程に基づく後続函数は、ミニマックス速度よりも厳密に遅い速度でのみ真理を回復できることを示す。
論文 参考訳(メタデータ) (2022-05-16T15:42:25Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Gauss-Legendre Features for Gaussian Process Regression [7.37712470421917]
カーネル行列の低階近似を用いてガウス過程の回帰をスケールアップするためのガウス・レーゲンドル二次法を提案する。
この手法はよく知られたランダムなフーリエ特徴法に触発され、数値積分による低ランク近似も構築する。
論文 参考訳(メタデータ) (2021-01-04T18:09:25Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Disentangling the Gauss-Newton Method and Approximate Inference for
Neural Networks [96.87076679064499]
我々は一般化されたガウスニュートンを解き、ベイズ深層学習の近似推論を行う。
ガウス・ニュートン法は基礎となる確率モデルを大幅に単純化する。
ガウス過程への接続は、新しい関数空間推論アルゴリズムを可能にする。
論文 参考訳(メタデータ) (2020-07-21T17:42:58Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。