論文の概要: A Kronecker product accelerated efficient sparse Gaussian Process
(E-SGP) for flow emulation
- arxiv url: http://arxiv.org/abs/2312.10023v1
- Date: Wed, 13 Dec 2023 11:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 14:31:23.759784
- Title: A Kronecker product accelerated efficient sparse Gaussian Process
(E-SGP) for flow emulation
- Title(参考訳): フローエミュレーションのためのKronecker積の効率的なスパースガウス過程(E-SGP)
- Authors: Yu Duan, Matthew Eaton, Michael Bluck
- Abstract要約: 本稿では,流体力学の代理モデリングのための効率的なスパースガウス法(E-SGP)を提案する。
これは、効率的なGP(E-GP)と変動エネルギーのないガウス過程(VEF-SGP)の概念を組み合わせた近似スパースGPアルゴリズムのさらなる発展である。
- 参考スコア(独自算出の注目度): 2.563626165548781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce an efficient sparse Gaussian process (E-SGP) for
the surrogate modelling of fluid mechanics. This novel Bayesian machine
learning algorithm allows efficient model training using databases of different
structures. It is a further development of the approximated sparse GP
algorithm, combining the concept of efficient GP (E-GP) and variational energy
free sparse Gaussian process (VEF-SGP). The developed E-SGP approach exploits
the arbitrariness of inducing points and the monotonically increasing nature of
the objective function with respect to the number of inducing points in
VEF-SGP. By specifying the inducing points on the orthogonal grid/input
subspace and using the Kronecker product, E-SGP significantly improves
computational efficiency without imposing any constraints on the covariance
matrix or increasing the number of parameters that need to be optimised during
training.
The E-SGP algorithm developed in this paper outperforms E-GP not only in
scalability but also in model quality in terms of mean standardized logarithmic
loss (MSLL). The computational complexity of E-GP suffers from the cubic growth
regarding the growing structured training database. However, E-SGP maintains
computational efficiency whilst the resolution of the model, (i.e., the number
of inducing points) remains fixed. The examples show that E-SGP produces more
accurate predictions in comparison with E-GP when the model resolutions are
similar in both. E-GP benefits from more training data but comes with higher
computational demands, while E-SGP achieves a comparable level of accuracy but
is more computationally efficient, making E-SGP a potentially preferable choice
for fluid mechanic problems. Furthermore, E-SGP can produce more reasonable
estimates of model uncertainty, whilst E-GP is more likely to produce
over-confident predictions.
- Abstract(参考訳): 本稿では,流体力学のサロゲートモデリングのための効率的なスパースガウス過程(e-sgp)を提案する。
この新しいベイズ機械学習アルゴリズムは、異なる構造のデータベースを用いた効率的なモデルトレーニングを可能にする。
これは、効率的なGP(E-GP)と変動エネルギーのないガウス過程(VEF-SGP)の概念を組み合わせた近似スパースGPアルゴリズムのさらなる発展である。
vef-sgpの誘導点数に対して, 誘導点の任意性と目的関数の単調に増加する性質を生かしたe-sgp法を開発した。
直交格子/入力部分空間上の誘導点を特定し、クロネッカー積を用いることで、e-sgpは共分散行列に制約を課さずに計算効率を大幅に改善し、トレーニング中に最適化すべきパラメータの数を増やす。
この論文で開発されたE-SGPアルゴリズムは、スケーラビリティだけでなく、平均標準対数損失(MSLL)のモデル品質も優れている。
E-GPの計算複雑性は、成長する構造化トレーニングデータベースに関する3次成長に悩まされる。
しかし、E-SGPはモデルの解像度(つまり誘導点の数)が固定されている間、計算効率を維持する。
これらの例は、E-SGPがモデル解像度に類似している場合に、E-GPと比較してより正確な予測を生成することを示している。
E-SGPは、より多くのトレーニングデータから恩恵を受けるが、高い計算要求が伴う一方、E-SGPは同等の精度を達成できるが、より計算効率が良く、E-SGPは流体力学問題にとって好ましい選択肢となる。
さらに、E-SGPはモデル不確かさをより合理的に推定できる一方、E-GPは過信な予測を生成する可能性が高い。
関連論文リスト
- Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - Weighted Ensembles for Active Learning with Adaptivity [60.84896785303314]
本稿では,ラベル付きデータに漸進的に適応した重み付きGPモデルのアンサンブルについて述べる。
この新しいEGPモデルに基づいて、不確実性および不一致ルールに基づいて、一連の取得関数が出現する。
適応的に重み付けされたEGPベースの取得関数のアンサンブルも、さらなる性能向上のために導入されている。
論文 参考訳(メタデータ) (2022-06-10T11:48:49Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - A Sparse Expansion For Deep Gaussian Processes [33.29293167413832]
ガウス過程(TMGP)に基づいた高精度な推論と効率的なトレーニングのための効率的なスキームを提案する。
合成モデルと実データセットに関する数値実験により、既存のDGPモデルよりもDTMGPの計算効率が優れていることを示した。
論文 参考訳(メタデータ) (2021-12-11T00:59:33Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Deep Gaussian Process Emulation using Stochastic Imputation [0.0]
本稿では,命令を用いた計算機モデルエミュレーションのための新しいディープガウス過程 (DGP) 推論法を提案する。
この手法は、遅延層を強制的に命令することで、DGPをリンクされたGPに変換し、これは、フィードフォワード結合GPの系をリンクすることによって形成される最先端の代理モデルである。
論文 参考訳(メタデータ) (2021-07-04T10:46:23Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Improving Sampling Accuracy of Stochastic Gradient MCMC Methods via
Non-uniform Subsampling of Gradients [54.90670513852325]
サンプリング精度を向上させるための一様でないサブサンプリング手法を提案する。
EWSGは、一様勾配MCMC法がバッチ勾配MCMC法の統計的挙動を模倣するように設計されている。
EWSGの実践的な実装では、データインデックス上のMetropolis-Hastingsチェーンを介して、一様でないサブサンプリングを効率的に行う。
論文 参考訳(メタデータ) (2020-02-20T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。