論文の概要: Batch Bayesian Optimization via Particle Gradient Flows
- arxiv url: http://arxiv.org/abs/2209.04722v1
- Date: Sat, 10 Sep 2022 18:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:32:51.717733
- Title: Batch Bayesian Optimization via Particle Gradient Flows
- Title(参考訳): 粒子勾配流によるバッチベイズ最適化
- Authors: Enrico Crovini, Simon L. Cotter, Konstantinos Zygalakis and Andrew B.
Duncan
- Abstract要約: ブラックボックスとしてしか利用できない,あるいは評価に費用がかかる対象関数のグローバルな最適化方法を示す。
確率測度の空間上の多点予測確率に基づく新しい関数を構築する。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian Optimisation (BO) methods seek to find global optima of objective
functions which are only available as a black-box or are expensive to evaluate.
Such methods construct a surrogate model for the objective function,
quantifying the uncertainty in that surrogate through Bayesian inference.
Objective evaluations are sequentially determined by maximising an acquisition
function at each step. However, this ancilliary optimisation problem can be
highly non-trivial to solve, due to the non-convexity of the acquisition
function, particularly in the case of batch Bayesian optimisation, where
multiple points are selected in every step. In this work we reformulate batch
BO as an optimisation problem over the space of probability measures. We
construct a new acquisition function based on multipoint expected improvement
which is convex over the space of probability measures. Practical schemes for
solving this `inner' optimisation problem arise naturally as gradient flows of
this objective function. We demonstrate the efficacy of this new method on
different benchmark functions and compare with state-of-the-art batch BO
methods.
- Abstract(参考訳): ベイズ最適化(BO)法は,ブラックボックスとしてのみ利用可能か,評価に費用がかかる対象関数のグローバルな最適化を求める。
このような手法は目的関数の代理モデルを構築し、ベイズ予想を通じてその代理関数の不確かさを定量化する。
各ステップで取得関数を最大化することにより、客観的評価を順次決定する。
しかし、この補助的最適化問題は、獲得関数の非凸性、特にバッチベイズ最適化の場合、ステップ毎に複数の点が選択されるため、非常に非自明である。
本研究では,確率測度空間上の最適化問題としてバッチBOを再構成する。
確率測度空間上での凸である多点予測改善に基づく新たな獲得関数を構築する。
この「インナー」最適化問題を解くための実践的スキームは、この目的関数の勾配流として自然に生じる。
異なるベンチマーク関数に対する新しい手法の有効性を実証し、最先端のバッチBO法と比較する。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - qPOTS: Efficient batch multiobjective Bayesian optimization via Pareto
optimal Thompson sampling [0.0]
多目的最適化を解くためのサンプル効率のアプローチはプロセス・オラクル・サロゲート (GP) を経由する。
本稿では,ランダムGPサンプルのフロンティアから新しい候補を選択する,単純かつ効果的なトンプソンサンプリングに基づくアプローチを提案する。
提案手法は, 実世界の実験だけでなく, 精度, 計算効率の両面において, 高い実験性能を示すものである。
論文 参考訳(メタデータ) (2023-10-24T12:35:15Z) - SOBER: Highly Parallel Bayesian Optimization and Bayesian Quadrature
over Discrete and Mixed Spaces [6.573393706476156]
離散および混合空間上の任意のカーネルを持つ新しい大域最適化法を提案する。
バッチ二次法は、搾取的ベイズ二次法の利点のバランスをとることによって、両方の問題を効率的に解くことができる。
我々は、SOBERが競合するベースライン効率のバッチとスケーラブルな実世界のタスクより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-27T16:36:33Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - On the development of a Bayesian optimisation framework for complex
unknown systems [11.066706766632578]
本稿では, ベイズ最適化アルゴリズムを様々な合成試験関数に対して実験的に検討し, 比較する。
取得関数の選択とトレーニングサンプル数,取得関数の正確な計算,モンテカルロに基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-07-19T09:50:34Z) - Bayesian Optimization for Macro Placement [48.55456716632735]
本研究では,系列対上のベイズ最適化(BO)を用いた新しいマクロ配置法を提案する。
BOは確率的代理モデルと獲得関数を利用する機械学習技術である。
固定アウトラインマクロ配置問題に対して, 半周波線長目標を用いたアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-07-18T06:17:06Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Bayesian Optimization of Risk Measures [7.799648230758491]
我々は、$rho[F(x, W) ]$ という形の目的関数のベイズ最適化を考える。
目的関数の構造を利用してサンプリング効率を大幅に向上する新しいベイズ最適化アルゴリズム群を提案する。
論文 参考訳(メタデータ) (2020-07-10T18:20:46Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。