論文の概要: $\epsilon$-shotgun: $\epsilon$-greedy Batch Bayesian Optimisation
- arxiv url: http://arxiv.org/abs/2002.01873v2
- Date: Sun, 29 Mar 2020 15:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 20:44:35.911766
- Title: $\epsilon$-shotgun: $\epsilon$-greedy Batch Bayesian Optimisation
- Title(参考訳): $\epsilon$-shotgun: $\epsilon$-greedy Batch Bayesian Optimisation
- Authors: George De Ath, Richard M. Everson, Jonathan E. Fieldsend, Alma A. M.
Rahat
- Abstract要約: バッチ設定におけるベイズ最適化のための$epsilon$-greedy手順を提案する。
私たちの$epsilon$-shotgunアルゴリズムは、モデルの予測、不確実性、および風景の変化の近似率を活用する。
我々は、様々な合成関数と2つの実世界の問題に対して、$epsilon$-shotgun法を実証的に評価した。
- 参考スコア(独自算出の注目度): 0.029410438275861574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimisation is a popular, surrogate model-based approach for
optimising expensive black-box functions. Given a surrogate model, the next
location to expensively evaluate is chosen via maximisation of a cheap-to-query
acquisition function. We present an $\epsilon$-greedy procedure for Bayesian
optimisation in batch settings in which the black-box function can be evaluated
multiple times in parallel. Our $\epsilon$-shotgun algorithm leverages the
model's prediction, uncertainty, and the approximated rate of change of the
landscape to determine the spread of batch solutions to be distributed around a
putative location. The initial target location is selected either in an
exploitative fashion on the mean prediction, or -- with probability $\epsilon$
-- from elsewhere in the design space. This results in locations that are more
densely sampled in regions where the function is changing rapidly and in
locations predicted to be good (i.e close to predicted optima), with more
scattered samples in regions where the function is flatter and/or of poorer
quality. We empirically evaluate the $\epsilon$-shotgun methods on a range of
synthetic functions and two real-world problems, finding that they perform at
least as well as state-of-the-art batch methods and in many cases exceed their
performance.
- Abstract(参考訳): ベイズ最適化は、高価なブラックボックス関数を最適化するためのモデルベースアプローチとして人気がある。
代用モデルが与えられた場合、安価なクエリー取得関数の最大化により、次に高価な評価を行う場所を選択する。
我々は,ブラックボックス関数を複数回並列に評価できるバッチ設定において,ベイズ最適化のための$\epsilon$-greedy手順を提案する。
我々の$\epsilon$-shotgunアルゴリズムは、モデルの予測、不確実性、ランドスケープの変化の近似率を利用して、配置された場所に分散するバッチソリューションの拡散を決定する。
最初のターゲットロケーションは、平均予測に基づいて搾取的な方法で選択するか、デザインスペースの他の場所から -- 確率$\epsilon$ -- で選択される。
この結果、関数が急速に変化している領域や、予測された最適な位置(すなわち、予測された最適に近い)でより密にサンプリングされた場所が、関数がより平坦で/またはより品質の低い領域でより散らばっている。
我々は,様々な合成関数と2つの実世界の問題に対する$\epsilon$-shotgun法を実験的に評価し,少なくとも最先端のバッチ法と同等の性能を示し,多くの場合は性能を上回った。
関連論文リスト
- qPOTS: Efficient batch multiobjective Bayesian optimization via Pareto optimal Thompson sampling [0.0]
多目的最適化を解くためのサンプル効率のアプローチは、プロセス・オラクル・サロゲート(GP)とMOBOOTS$である。
我々はトンプソンサンプリング(TS)に基づくアプローチ(qtextttPOTS$)を提案する。
$qtextttPOTS$は、GP後部の安価な多目的最適化を進化的アプローチで解決する。
論文 参考訳(メタデータ) (2023-10-24T12:35:15Z) - Bayesian Optimization with Conformal Prediction Sets [44.565812181545645]
コンフォーマル予測(Conformal prediction)は、不確実な定量化手法であり、不特定モデルに対してもカバレッジを保証する。
本稿では,モデルの妥当性が保証された検索空間の領域にクエリを誘導する共形ベイズ最適化を提案する。
多くの場合、クエリのカバレッジはサンプル効率を損なうことなく大幅に改善できる。
論文 参考訳(メタデータ) (2022-10-22T17:01:05Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Scalable Bayesian Optimization Using Vecchia Approximations of Gaussian
Processes [0.0]
空間統計学から一般的なGP近似であるVecchia近似を適用し、スケーラブルな高次元ベイズ最適化を実現する。
我々は、トンプソンサンプリングによる信頼領域ベイズ最適化における歪んだヴェッキアGPの使用に焦点を当てた。
論文 参考訳(メタデータ) (2022-03-02T23:55:14Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Bayesian Optimization of Risk Measures [7.799648230758491]
我々は、$rho[F(x, W) ]$ という形の目的関数のベイズ最適化を考える。
目的関数の構造を利用してサンプリング効率を大幅に向上する新しいベイズ最適化アルゴリズム群を提案する。
論文 参考訳(メタデータ) (2020-07-10T18:20:46Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。