論文の概要: A General Recipe for Likelihood-free Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2206.13035v1
- Date: Mon, 27 Jun 2022 03:55:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 12:21:38.017740
- Title: A General Recipe for Likelihood-free Bayesian Optimization
- Title(参考訳): 確率自由ベイズ最適化のための一般レシピ
- Authors: Jiaming Song, Lantao Yu, Willie Neiswanger, Stefano Ermon
- Abstract要約: 我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
- 参考スコア(独自算出の注目度): 115.82591413062546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The acquisition function, a critical component in Bayesian optimization (BO),
can often be written as the expectation of a utility function under a surrogate
model. However, to ensure that acquisition functions are tractable to optimize,
restrictions must be placed on the surrogate model and utility function. To
extend BO to a broader class of models and utilities, we propose
likelihood-free BO (LFBO), an approach based on likelihood-free inference. LFBO
directly models the acquisition function without having to separately perform
inference with a probabilistic surrogate model. We show that computing the
acquisition function in LFBO can be reduced to optimizing a weighted
classification problem, where the weights correspond to the utility being
chosen. By choosing the utility function for expected improvement (EI), LFBO
outperforms various state-of-the-art black-box optimization methods on several
real-world optimization problems. LFBO can also effectively leverage composite
structures of the objective function, which further improves its regret by
several orders of magnitude.
- Abstract(参考訳): ベイズ最適化(BO)において重要な要素である取得関数は、サロゲートモデルの下でのユーティリティ関数の期待として記述することができる。
しかし、取得関数が最適化するためには、サロゲートモデルとユーティリティ関数に制限を置く必要がある。
BOをより広範なモデルやユーティリティに拡張するために、確率自由推論に基づくアプローチである確率自由BO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化し、重み付けが選択されるユーティリティに対応することを示せる。
期待される改善のためのユーティリティ関数(EI)を選択することで、LFBOはいくつかの実世界の最適化問題において、最先端のブラックボックス最適化手法よりも優れる。
LFBOは目的関数の合成構造を効果的に利用することができ、その後悔をさらに改善する。
関連論文リスト
- Batched Energy-Entropy acquisition for Bayesian Optimization [0.0]
本稿では,バッチ処理が可能なガウス過程を持つBOの統計物理学に基づく獲得関数を提案する。
BEEBOは最適化プロセスの探索・探索トレードオフの厳密な制御を可能にし、ヘテロスケダスティックブラックボックス問題に一般化する。
論文 参考訳(メタデータ) (2024-10-11T13:39:47Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Simulation Based Bayesian Optimization [0.6526824510982799]
本稿では,獲得関数を最適化するための新しいアプローチとして,シミュレーションベースベイズ最適化(SBBO)を提案する。
SBBOは、離散変数を持つ空間に適した代理モデルを使用することができる。
代理モデルの様々な選択を用いたSBBO法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-01-19T16:56:11Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - Predictive Modeling through Hyper-Bayesian Optimization [60.586813904500595]
本稿では,モデル選択とBOを統合する新しい手法を提案する。
このアルゴリズムは、モデル空間のBOと関数空間のBOの間を行き来する。
サンプル効率の改善に加えて、ブラックボックス機能に関する情報も出力する。
論文 参考訳(メタデータ) (2023-08-01T04:46:58Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - R-MBO: A Multi-surrogate Approach for Preference Incorporation in
Multi-objective Bayesian Optimisation [0.0]
本稿では,多目的BOにおける意思決定者の嗜好として,目的関数を目的関数値に組み込むための,a-priori Multi-surrogateアプローチを提案する。
ベンチマークと実世界の最適化問題に対する既存モノ代理手法との比較は,提案手法の可能性を示している。
論文 参考訳(メタデータ) (2022-04-27T19:58:26Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。