論文の概要: Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2003.04207v1
- Date: Mon, 9 Mar 2020 15:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:35:34.719466
- Title: Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization
- Title(参考訳): 高次元ベイズ最適化のためのカーネルと獲得関数の構成
- Authors: Antonio Candelieri, Ilaria Giordani, Riccardo Perego, Francesco
Archetti
- Abstract要約: 目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
- 参考スコア(独自算出の注目度): 0.1749935196721634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian Optimization has become the reference method for the global
optimization of black box, expensive and possibly noisy functions. Bayesian
Op-timization learns a probabilistic model about the objective function,
usually a Gaussian Process, and builds, depending on its mean and variance, an
acquisition function whose optimizer yields the new evaluation point, leading
to update the probabilistic surrogate model. Despite its sample efficiency,
Bayesian Optimiza-tion does not scale well with the dimensions of the problem.
The optimization of the acquisition function has received less attention
because its computational cost is usually considered negligible compared to
that of the evaluation of the objec-tive function. Its efficient optimization
is often inhibited, particularly in high di-mensional problems, by multiple
extrema. In this paper we leverage the addition-ality of the objective function
into mapping both the kernel and the acquisition function of the Bayesian
Optimization in lower dimensional subspaces. This ap-proach makes more
efficient the learning/updating of the probabilistic surrogate model and allows
an efficient optimization of the acquisition function. Experi-mental results
are presented for real-life application, that is the control of pumps in urban
water distribution systems.
- Abstract(参考訳): ベイズ最適化はブラックボックスのグローバル最適化の基準手法となり、高価でノイズの多い関数となった。
ベイズオプティマイズ(英語版)は目的関数(通常ガウス過程)に関する確率論的モデルを学び、その平均と分散に依存して、新しい評価点をオプティマイザが得る獲得関数を構築し、確率的サロゲートモデルを更新する。
サンプル効率にもかかわらず、ベイズのオプティミザは問題の次元ではうまくスケールしない。
取得関数の最適化は、通常計算コストはオブジェク関数の評価よりも無視できると考えられるため、あまり注目されていない。
その効率的な最適化は、特に高次元問題において、多重極限によってしばしば阻害される。
本稿では,対象関数の加法性を利用して,低次元部分空間におけるベイズ最適化の核と獲得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にし、取得関数の効率的な最適化を可能にする。
都市配水システムにおけるポンプの制御を実生活に応用するための実験的検討を行った。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Batch Bayesian Optimization via Particle Gradient Flows [0.5735035463793008]
ブラックボックスとしてしか利用できない,あるいは評価に費用がかかる対象関数のグローバルな最適化方法を示す。
確率測度の空間上の多点予測確率に基づく新しい関数を構築する。
論文 参考訳(メタデータ) (2022-09-10T18:10:15Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Bayesian Optimization with Informative Covariance [13.113313427848828]
探索空間の特定の領域の好みを符号化するために,非定常性を利用した新しい情報共分散関数を提案する。
提案した関数は,より弱い事前情報の下でも,ハイ次元でのベイズ最適化のサンプル効率を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-04T15:05:11Z) - On the development of a Bayesian optimisation framework for complex
unknown systems [11.066706766632578]
本稿では, ベイズ最適化アルゴリズムを様々な合成試験関数に対して実験的に検討し, 比較する。
取得関数の選択とトレーニングサンプル数,取得関数の正確な計算,モンテカルロに基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-07-19T09:50:34Z) - A General Recipe for Likelihood-free Bayesian Optimization [115.82591413062546]
我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
論文 参考訳(メタデータ) (2022-06-27T03:55:27Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - BOSH: Bayesian Optimization by Sampling Hierarchically [10.10241176664951]
本稿では,階層的なガウス過程と情報理論の枠組みを組み合わせたBOルーチンを提案する。
BOSHは, ベンチマーク, シミュレーション最適化, 強化学習, ハイパーパラメータチューニングタスクにおいて, 標準BOよりも効率的で高精度な最適化を実現する。
論文 参考訳(メタデータ) (2020-07-02T07:35:49Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。