論文の概要: Self-Adjusting Weighted Expected Improvement for Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2306.04262v2
- Date: Thu, 8 Jun 2023 10:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 10:33:42.455943
- Title: Self-Adjusting Weighted Expected Improvement for Bayesian Optimization
- Title(参考訳): ベイズ最適化のための自己調整重み付き期待改善
- Authors: Carolin Benjamins and Elena Raponi and Anja Jankovic and Carola Doerr
and Marius Lindauer
- Abstract要約: この研究はAFの定義に焦点を当てており、その主な目的は、調査地域と高い不確実性のある地域と、優れたソリューションを約束する地域とのトレードオフをバランスさせることである。
我々は、データ駆動方式で、探索・探索トレードオフを自己調整する自己調整重み付き改善(SAWEI)を提案する。
提案手法は手作りのベースラインと比較して,任意の問題構造に対して堅牢なデフォルト選択として有効である。
- 参考スコア(独自算出の注目度): 11.955557264002204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian Optimization (BO) is a class of surrogate-based, sample-efficient
algorithms for optimizing black-box problems with small evaluation budgets. The
BO pipeline itself is highly configurable with many different design choices
regarding the initial design, surrogate model, and acquisition function (AF).
Unfortunately, our understanding of how to select suitable components for a
problem at hand is very limited. In this work, we focus on the definition of
the AF, whose main purpose is to balance the trade-off between exploring
regions with high uncertainty and those with high promise for good solutions.
We propose Self-Adjusting Weighted Expected Improvement (SAWEI), where we let
the exploration-exploitation trade-off self-adjust in a data-driven manner,
based on a convergence criterion for BO. On the noise-free black-box BBOB
functions of the COCO benchmarking platform, our method exhibits a favorable
any-time performance compared to handcrafted baselines and serves as a robust
default choice for any problem structure. The suitability of our method also
transfers to HPOBench. With SAWEI, we are a step closer to on-the-fly,
data-driven, and robust BO designs that automatically adjust their sampling
behavior to the problem at hand.
- Abstract(参考訳): ベイズ最適化(英: Bayesian Optimization, BO)は、ブラックボックス問題を最小評価予算で最適化するためのサロゲートベースのサンプル効率アルゴリズムである。
BOパイプライン自体は、初期設計、サロゲートモデル、取得機能(AF)に関する多くの異なる設計選択で、高度に構成可能である。
残念ながら、問題に対する適切なコンポーネントの選択方法に関する理解は非常に限られています。
本研究は,不確実性の高い地域と,優れたソリューションを約束する地域とのトレードオフを両立させることを主目的とするAFの定義に焦点を当てる。
我々は,BOの収束基準に基づいて,データ駆動方式で探索・探索トレードオフを自己調整する自己調整重み付き改善(SAWEI)を提案する。
COCOベンチマークプラットフォームのノイズフリーなブラックボックスBBOB関数では,手作りのベースラインに比べて任意の時間性能が良好であり,どの問題構造に対しても堅牢なデフォルト選択として機能する。
提案手法の適合性もHPOBenchに伝達される。
SAWEIでは、手元にある問題に自動的にサンプリング動作を調整する、オンザフライ、データ駆動、堅牢なBO設計に一歩近づきます。
関連論文リスト
- Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - LABCAT: Locally adaptive Bayesian optimization using principal-component-aligned trust regions [0.0]
信頼領域に基づくBOを拡張した LABCAT アルゴリズムを提案する。
このアルゴリズムは、最先端のBOや他のブラックボックス最適化アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-19T13:56:24Z) - Predictive Modeling through Hyper-Bayesian Optimization [60.586813904500595]
本稿では,モデル選択とBOを統合する新しい手法を提案する。
このアルゴリズムは、モデル空間のBOと関数空間のBOの間を行き来する。
サンプル効率の改善に加えて、ブラックボックス機能に関する情報も出力する。
論文 参考訳(メタデータ) (2023-08-01T04:46:58Z) - Large-Batch, Iteration-Efficient Neural Bayesian Design Optimization [37.339567743948955]
本稿では,BOの限界に対処するための新しいベイズ最適化フレームワークを提案する。
我々の重要な貢献は、高度にスケーラブルでサンプルベースの取得機能であり、非支配的な目的のソートを実行する。
我々は,ベイズ型ニューラルネットワークサロゲートと組み合わせることで,最小限の反復数でデータ集約環境に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T19:10:57Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Towards Automated Design of Bayesian Optimization via Exploratory
Landscape Analysis [11.143778114800272]
AFの動的選択はBO設計に有用であることを示す。
我々は,オートML支援のオンザフライBO設計への道を開き,その動作をランニング・バイ・ランで調整する。
論文 参考訳(メタデータ) (2022-11-17T17:15:04Z) - A General Recipe for Likelihood-free Bayesian Optimization [115.82591413062546]
我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
論文 参考訳(メタデータ) (2022-06-27T03:55:27Z) - Sparse Bayesian Optimization [16.867375370457438]
よりスパースで解釈可能な構成を発見できる正規化ベースのアプローチをいくつか提示する。
そこで本研究では,同相連続に基づく新たな微分緩和法を提案し,空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間的空間
スパシティのために効率的に最適化できることが示されています。
論文 参考訳(メタデータ) (2022-03-03T18:25:33Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Scalable Constrained Bayesian Optimization [10.820024633762596]
ブラックボックス制約下での高次元ブラックボックス関数のグローバルな最適化は、機械学習、制御、科学コミュニティにおける普及的なタスクである。
本稿では,上記の課題を克服し,現状を推し進めるスケーラブルな制約付きベイズ最適化(SCBO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T01:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。