論文の概要: Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration
- arxiv url: http://arxiv.org/abs/2312.11318v1
- Date: Mon, 18 Dec 2023 16:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:32:25.074987
- Title: Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration
- Title(参考訳): ガウス過程のドメイン不変学習とベイズ探索
- Authors: Xilong Zhao, Siyuan Bian, Yaoyun Zhang, Yuliang Zhang, Qinying Gu,
Xinbing Wang, Chenghu Zhou and Nanyang Ye
- Abstract要約: そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
- 参考スコア(独自算出の注目度): 39.83530605880014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) generalization has long been a challenging problem
that remains largely unsolved. Gaussian processes (GP), as popular
probabilistic model classes, especially in the small data regime, presume
strong OOD generalization abilities. Surprisingly, their OOD generalization
abilities have been under-explored before compared with other lines of GP
research. In this paper, we identify that GP is not free from the problem and
propose a domain invariant learning algorithm for Gaussian processes (DIL-GP)
with a min-max optimization on the likelihood. DIL-GP discovers the
heterogeneity in the data and forces invariance across partitioned subsets of
data. We further extend the DIL-GP to improve Bayesian optimization's
adaptability on changing environments. Numerical experiments demonstrate the
superiority of DIL-GP for predictions on several synthetic and real-world
datasets. We further demonstrate the effectiveness of the DIL-GP Bayesian
optimization method on a PID parameters tuning experiment for a quadrotor. The
full version and source code are available at:
https://github.com/Billzxl/DIL-GP.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)の一般化は長い間、ほとんど未解決の課題であった。
ガウス過程(GP: Gaussian process)は、確率論的モデルクラスとして、特に小さなデータ構造において、強いOOD一般化能力を前提としている。
驚くべきことに、彼らのood一般化能力はgp研究の他の行と比較される前には未熟に研究されている。
本稿では,gpが問題から自由でないことを明らかにし,確率を最小に最適化したガウス過程(dil-gp)に対するドメイン不変学習アルゴリズムを提案する。
DIL-GPはデータの不均一性を発見し、データの分割されたサブセット間で不変性を強制する。
さらに,DIL-GPを拡張し,ベイズ最適化の環境適応性を向上させる。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
さらに,DIL-GPベイズ最適化法のPIDパラメータチューニング実験への適用性を示す。
完全なバージョンとソースコードは、https://github.com/Billzxl/DIL-GPで入手できる。
関連論文リスト
- Deep Transformed Gaussian Processes [0.0]
変換ガウス過程(英: Transformed Gaussian Processs、TGP)は、可逆変換を用いて、前者のプロセス(典型的にはGP)からサンプルを共分散から変換することによって定義される過程である。
本稿では,プロセスの階層化の傾向に従い,DTGP(Deep Transformed Gaussian Processs)と呼ばれるTGPの一般化を提案する。
実験では、提案したDTGPを複数の回帰データセットで評価し、優れたスケーラビリティと性能を実現した。
論文 参考訳(メタデータ) (2023-10-27T16:09:39Z) - Shallow and Deep Nonparametric Convolutions for Gaussian Processes [0.0]
GPの非パラメトリックプロセス畳み込み定式化を導入し,機能サンプリング手法を用いて弱点を緩和する。
古典的ディープGPモデルの代替となるこれらの非パラメトリック畳み込みの合成を提案する。
論文 参考訳(メタデータ) (2022-06-17T19:03:04Z) - Debiased Batch Normalization via Gaussian Process for Generalizable
Person Re-Identification [84.32086702849338]
一般化可能な人物再識別は、見知らぬ領域でうまく機能するラベル付きソースドメインのみを持つモデルを学ぶことを目的としている。
一般化可能な人物識別のためのガウスプロセスアプローチ(GDNorm)によるデバイアスドバッチ正規化を提案する。
論文 参考訳(メタデータ) (2022-03-03T14:14:51Z) - Scaling Gaussian Process Optimization by Evaluating a Few Unique
Candidates Multiple Times [119.41129787351092]
GPに基づく逐次ブラックボックス最適化は,複数の評価ステップの候補解に固執することで効率よく行うことができることを示す。
GP-UCB と GP-EI の2つのよく確立されたGP-Opt アルゴリズムを改良し,バッチ化された GP-Opt の規則を適応させる。
論文 参考訳(メタデータ) (2022-01-30T20:42:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Latent Map Gaussian Processes for Mixed Variable Metamodeling [0.0]
GPの魅力的な特性を継承するが、混合データにも適用できる潜在写像ガウス過程(LMGP)を導入する。
LMGPは可変長入力を処理でき、定性的入力が応答にどのように影響するか、相互に相互作用するかについての洞察を提供する。
また, LMGPのニューラルネットワーク解釈を行い, 先行潜時表現が性能に与える影響について検討する。
論文 参考訳(メタデータ) (2021-02-07T22:21:53Z) - Sparse Gaussian Process Variational Autoencoders [24.86751422740643]
既存のGP-DGMにおける推論のアプローチは、点に基づくスパースGP近似をサポートしない。
我々は,スパースGP近似のパラメータ化に部分的推論ネットワークを用いることで特徴付けられるスパースガウス過程変動オートエンコーダ(GP-VAE)を開発した。
論文 参考訳(メタデータ) (2020-10-20T10:19:56Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。