論文の概要: Fantasizing with Dual GPs in Bayesian Optimization and Active Learning
- arxiv url: http://arxiv.org/abs/2211.01053v1
- Date: Wed, 2 Nov 2022 11:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 12:36:23.535000
- Title: Fantasizing with Dual GPs in Bayesian Optimization and Active Learning
- Title(参考訳): ベイズ最適化とアクティブラーニングにおけるデュアルGPによるファンタジング
- Authors: Paul E. Chang, Prakhar Verma, ST John, Victor Picheny, Henry Moss and
Arno Solin
- Abstract要約: 我々は,新たなファンタサイズデータに対処する能力を必要とするバッチ取得機能に焦点をあてる。
スパースデュアルGPパラメタライゼーションを用いることで、バッチサイズでの線形スケーリングと、非ガウス確率のワンステップ更新が得られる。
- 参考スコア(独自算出の注目度): 14.050425158209826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian processes (GPs) are the main surrogate functions used for sequential
modelling such as Bayesian Optimization and Active Learning. Their drawbacks
are poor scaling with data and the need to run an optimization loop when using
a non-Gaussian likelihood. In this paper, we focus on `fantasizing' batch
acquisition functions that need the ability to condition on new fantasized data
computationally efficiently. By using a sparse Dual GP parameterization, we
gain linear scaling with batch size as well as one-step updates for
non-Gaussian likelihoods, thus extending sparse models to greedy batch
fantasizing acquisition functions.
- Abstract(参考訳): ガウス過程 (GP) はベイズ最適化やアクティブラーニングのような逐次モデリングに使用される主要な代理関数である。
彼らの欠点は、データとのスケーリングの貧弱さと、非ガウス的可能性を使用する場合に最適化ループを実行する必要性である。
本稿では,新しいファンタシフィケーションデータを効率的に計算する能力を必要とするバッチ取得関数の「ファンタシファイズ」に焦点を当てる。
スパース双対gpパラメータ化を用いることで、バッチサイズによる線形スケーリングと非ガウス的可能性のワンステップ更新を実現し、スパースモデルを欲張りなバッチファンタシゼーション獲得関数に拡張する。
関連論文リスト
- Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Bayesian Active Learning with Fully Bayesian Gaussian Processes [0.0]
ラベル付きデータが乏しい、あるいは入手が難しいアクティブラーニングでは、このトレードオフを無視することは、非効率なクエリを引き起こす可能性がある。
取得関数にバイアス分散トレードオフを組み込むことで、不要で高価なデータラベリングが軽減されることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:52:04Z) - Scalable Bayesian Optimization Using Vecchia Approximations of Gaussian
Processes [0.0]
空間統計学から一般的なGP近似であるVecchia近似を適用し、スケーラブルな高次元ベイズ最適化を実現する。
我々は、トンプソンサンプリングによる信頼領域ベイズ最適化における歪んだヴェッキアGPの使用に焦点を当てた。
論文 参考訳(メタデータ) (2022-03-02T23:55:14Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Transforming Gaussian Processes With Normalizing Flows [15.886048234706633]
パラメトリックな非可逆変換を入力依存にし、解釈可能な事前知識を符号化できることを示す。
結果の推測問題に対する変分近似を導出するが、これは変分GP回帰と同じくらい高速である。
得られたアルゴリズムの計算性能と推論性能は優れており,これを様々なデータセットで示す。
論文 参考訳(メタデータ) (2020-11-03T09:52:37Z) - Likelihood-Free Inference with Deep Gaussian Processes [70.74203794847344]
サーロゲートモデルは、シミュレータ評価の回数を減らすために、可能性のない推論に成功している。
本稿では,より不規則な対象分布を扱えるディープガウス過程(DGP)サロゲートモデルを提案する。
本実験は,DGPがマルチモーダル分布を持つ目的関数上でGPよりも優れ,単調な場合と同等の性能を維持できることを示す。
論文 参考訳(メタデータ) (2020-06-18T14:24:05Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。