論文の概要: Efficient computation of the Knowledge Gradient for Bayesian
Optimization
- arxiv url: http://arxiv.org/abs/2209.15367v1
- Date: Fri, 30 Sep 2022 10:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:50:28.711769
- Title: Efficient computation of the Knowledge Gradient for Bayesian
Optimization
- Title(参考訳): ベイズ最適化のための知識勾配の効率的な計算
- Authors: Juan Ungredda and Michael Pearce and Juergen Branke
- Abstract要約: One-shot Hybrid KGは、これまで提案されていたアイデアをいくつか組み合わせた新しいアプローチであり、計算が安価で、強力で効率的である。
すべての実験はBOTorchで実施され、同等または改善された性能で計算オーバーヘッドを劇的に削減した。
- 参考スコア(独自算出の注目度): 1.0497128347190048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization is a powerful collection of methods for optimizing
stochastic expensive black box functions. One key component of a Bayesian
optimization algorithm is the acquisition function that determines which
solution should be evaluated in every iteration. A popular and very effective
choice is the Knowledge Gradient acquisition function, however there is no
analytical way to compute it. Several different implementations make different
approximations. In this paper, we review and compare the spectrum of Knowledge
Gradient implementations and propose One-shot Hybrid KG, a new approach that
combines several of the previously proposed ideas and is cheap to compute as
well as powerful and efficient. We prove the new method preserves theoretical
properties of previous methods and empirically show the drastically reduced
computational overhead with equal or improved performance. All experiments are
implemented in BOTorch and code is available on github.
- Abstract(参考訳): ベイズ最適化は確率的高価なブラックボックス関数を最適化する強力な手法の集合である。
ベイズ最適化アルゴリズムの重要な要素の1つは、反復ごとにどの解を評価するべきかを決定する取得関数である。
人気があり非常に効果的な選択は知識勾配取得関数であるが、それを計算する方法は存在しない。
いくつかの異なる実装は異なる近似を作る。
本稿では,知識勾配実装のスペクトルをレビュー・比較し,これまで提案してきたいくつかのアイデアを組み合わせて,強力かつ効率的な計算を実現するための新しい手法であるone-shot hybrid kgを提案する。
提案手法は,従来手法の理論的性質を保ちつつ,計算オーバーヘッドの大幅な低減と性能の向上を実証的に示す。
すべての実験はBOTorchで実装され、コードはgithubで利用可能である。
関連論文リスト
- Principled Preferential Bayesian Optimization [22.269732173306192]
優先ベイズ最適化(BO)の問題について検討する。
一対の候補解よりも優先的なフィードバックしか持たないブラックボックス関数を最適化することを目指している。
この問題を解決するために,効率的な計算手法を用いた楽観的アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-08T02:57:47Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Batch Bayesian Optimization via Particle Gradient Flows [0.5735035463793008]
ブラックボックスとしてしか利用できない,あるいは評価に費用がかかる対象関数のグローバルな最適化方法を示す。
確率測度の空間上の多点予測確率に基づく新しい関数を構築する。
論文 参考訳(メタデータ) (2022-09-10T18:10:15Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Revisiting Bayesian Optimization in the light of the COCO benchmark [1.4467794332678539]
本稿では,共通かつあまり一般的ではない設計選択のbo(gaussian process based)の性能への影響について,大規模な調査を行う。
この研究のために開発されたコードは、RパッケージDiceOptimの新バージョン(v2.1.1)をCRANで利用可能にしている。
論文 参考訳(メタデータ) (2021-03-30T19:45:18Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Resource Aware Multifidelity Active Learning for Efficient Optimization [0.8717253904965373]
本稿では,ブラックボックス関数の最適化を高速化するためのリソース・アウェア・アクティブ・ラーニング(RAAL)戦略を紹介する。
RAAL戦略は最適化タスクの大幅な高速化を可能にするために、最適に複数のポイントを投入する。
論文 参考訳(メタデータ) (2020-07-09T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。