論文の概要: Accounting for Gaussian Process Imprecision in Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2111.08299v1
- Date: Tue, 16 Nov 2021 08:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:26:09.107160
- Title: Accounting for Gaussian Process Imprecision in Bayesian Optimization
- Title(参考訳): ベイズ最適化におけるガウス過程不整合の会計
- Authors: Julian Rodemann, Thomas Augustin
- Abstract要約: ガウス過程の先行仕様が古典的BO収束に及ぼす影響について検討する。
本稿では,従来のパラメータの誤特定に対して,メソッドをより堅牢にレンダリングすることを目的としたBOの一般化としてPROBOを紹介した。
物質科学の現実的な問題に対して,従来のBOに対する我々のアプローチを検証し,より高速に収束するためにPROBOを観察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bayesian optimization (BO) with Gaussian processes (GP) as surrogate models
is widely used to optimize analytically unknown and expensive-to-evaluate
functions. In this paper, we propose Prior-mean-RObust Bayesian Optimization
(PROBO) that outperforms classical BO on specific problems. First, we study the
effect of the Gaussian processes' prior specifications on classical BO's
convergence. We find the prior's mean parameters to have the highest influence
on convergence among all prior components. In response to this result, we
introduce PROBO as a generalization of BO that aims at rendering the method
more robust towards prior mean parameter misspecification. This is achieved by
explicitly accounting for GP imprecision via a prior near-ignorance model. At
the heart of this is a novel acquisition function, the generalized lower
confidence bound (GLCB). We test our approach against classical BO on a
real-world problem from material science and observe PROBO to converge faster.
Further experiments on multimodal and wiggly target functions confirm the
superiority of our method.
- Abstract(参考訳): ガウス過程(GP)をサロゲートモデルとするベイズ最適化(BO)は、解析的に未知かつ高価な評価関数を最適化するために広く用いられている。
本稿では,従来のBOよりも高い性能を示すPROBO(Preside-mean-RObust Bayesian Optimization)を提案する。
まず,ガウス過程の先行仕様が古典的BO収束に及ぼす影響について検討する。
プリエントの平均パラメータは、すべての先行コンポーネント間の収束に最も影響が大きいことが分かりました。
この結果に対し,PROBOをBOの一般化として導入し,従来の平均パラメータの誤特定に対してより堅牢な手法を提案する。
これは、前述したほぼ無知モデルによるGPインプレクションを明示的に説明することで達成される。
この中心にあるのは、一般低信頼境界(GLCB)と呼ばれる新しい取得関数である。
物質科学の現実的な問題に対して従来のBOに対する我々のアプローチを検証し、PROBOを高速に収束させるために観察する。
マルチモーダルおよびwigglyターゲット関数に関するさらなる実験により,本手法の優位性が確認された。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Pre-trained Gaussian Processes for Bayesian Optimization [24.730678780782647]
本稿では,HyperBO という事前学習型 BO フレームワークを提案する。
GPが既知の「地中真実」を仮定することなく, 後続の予測と, ほぼゼロの後悔をHyperBOに示す。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z) - How Bayesian Should Bayesian Optimisation Be? [0.024790788944106048]
BO(FBBO)におけるガウス過程ハイパーパラメータの完全ベイズ処理が最適化性能の向上に繋がるかどうかを検討する。
予測改善(EI)とアッパー信頼境界(UCB)の取得関数を用いて、3つの近似推論スキームと最大可能性アプローチでFBBOを比較します。
ARDカーネルでEIを使用するFBBOは、ノイズフリー設定で最高のパフォーマンスをもたらし、ノイズが増加するとBOコンポーネントの組み合わせの違いがはるかに少なくなります。
論文 参考訳(メタデータ) (2021-05-03T14:28:11Z) - Bayesian Optimization with a Prior for the Optimum [41.41323474440455]
BOPrO (Preside for the Optimum) を用いたベイズ最適化について紹介する。
BOPrOは、入力空間のどの部分が最高のパフォーマンスをもたらすかという事前の形式で、最適化プロセスに自分の知識を注入することを可能にする。
BOPrOは、一般的なベンチマークスイートの最先端メソッドよりも約6.67倍高速であることを示す。
論文 参考訳(メタデータ) (2020-06-25T17:49:24Z) - Randomised Gaussian Process Upper Confidence Bound for Bayesian
Optimisation [60.93091603232817]
改良されたガウス過程上信頼境界(GP-UCB)取得関数を開発した。
これは、分布から探索・探索トレードオフパラメータをサンプリングすることによって行われる。
これにより、期待されるトレードオフパラメータが、関数のベイズ的後悔に縛られることなく、問題によりよく適合するように変更できることが証明される。
論文 参考訳(メタデータ) (2020-06-08T00:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。