論文の概要: Preferential Batch Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2003.11435v3
- Date: Tue, 31 Aug 2021 18:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:58:35.058716
- Title: Preferential Batch Bayesian Optimization
- Title(参考訳): 優先バッチベイズ最適化
- Authors: Eero Siivola, Akash Kumar Dhaka, Michael Riis Andersen, Javier
Gonzalez, Pablo Garcia Moreno, and Aki Vehtari
- Abstract要約: 優先バッチベイズ最適化(PBBO)は、潜在関数の最適性を見つけるための新しいフレームワークである。
本稿では,ベイズ最適化における従来の手法の一般化と拡張について述べる。
- 参考スコア(独自算出の注目度): 16.141259199997005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most research in Bayesian optimization (BO) has focused on \emph{direct
feedback} scenarios, where one has access to exact values of some
expensive-to-evaluate objective. This direction has been mainly driven by the
use of BO in machine learning hyper-parameter configuration problems. However,
in domains such as modelling human preferences, A/B tests, or recommender
systems, there is a need for methods that can replace direct feedback with
\emph{preferential feedback}, obtained via rankings or pairwise comparisons. In
this work, we present preferential batch Bayesian optimization (PBBO), a new
framework that allows finding the optimum of a latent function of interest,
given any type of parallel preferential feedback for a group of two or more
points. We do so by using a Gaussian process model with a likelihood specially
designed to enable parallel and efficient data collection mechanisms, which are
key in modern machine learning. We show how the acquisitions developed under
this framework generalize and augment previous approaches in Bayesian
optimization, expanding the use of these techniques to a wider range of
domains. An extensive simulation study shows the benefits of this approach,
both with simulated functions and four real data sets.
- Abstract(参考訳): ベイズ最適化(BO)のほとんどの研究は、高価な評価対象の正確な値にアクセスできる「emph{direct feedback}」シナリオに焦点を当てている。
この方向は主に、機械学習のハイパーパラメータ設定問題におけるBOの使用によって導かれる。
しかしながら、人選好、A/Bテスト、レコメンダシステムなどのドメインでは、ランク付けやペア比較によって得られる直接フィードバックを \emph{preferential feedback} に置き換える方法が必要である。
そこで本研究では,2点以上の群に対して,任意の種類の並列優先フィードバックが与えられ,興味のある潜在関数の最適を求めることができる新しいフレームワークである優先的バッチベイズ最適化(pbbo)を提案する。
現代の機械学習の鍵となる並列かつ効率的なデータ収集メカニズムを実現するために特別に設計された確率を持つガウスプロセスモデルを使用することで、これを実現します。
このフレームワークの下で開発された買収は、ベイズ最適化における以前のアプローチを一般化し、強化し、これらのテクニックをより広い範囲のドメインに拡張する方法を示します。
大規模なシミュレーション研究は、シミュレーション関数と4つの実データセットの両方でこのアプローチの利点を示している。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Simulation Based Bayesian Optimization [0.6526824510982799]
本稿では,獲得関数を最適化するための新しいアプローチとして,シミュレーションベースベイズ最適化(SBBO)を提案する。
SBBOは、離散変数を持つ空間に適した代理モデルを使用することができる。
代理モデルの様々な選択を用いたSBBO法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-01-19T16:56:11Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - MA-BBOB: Many-Affine Combinations of BBOB Functions for Evaluating
AutoML Approaches in Noiseless Numerical Black-Box Optimization Contexts [0.8258451067861933]
(MA-)BBOBは、一般公開のIOHファウンサープラットフォーム上に構築されている。
パフォーマンス分析と視覚化のためのインタラクティブなIOHanalyzerモジュールへのアクセスを提供し、(MA-)BBOB関数で利用可能なリッチで成長中のデータコレクションとの比較を可能にする。
論文 参考訳(メタデータ) (2023-06-18T19:32:12Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Bayesian Optimization over Permutation Spaces [30.650753803587794]
BOPS (Permutation Spaces) に対する2つのアルゴリズムの提案と評価を行った。
BOPS-Tの性能を理論的に解析し,その後悔がサブリニアに増加することを示す。
複数の合成および実世界のベンチマーク実験により、BOPS-TとBOPS-Hは、空間に対する最先端のBOアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-12-02T08:20:50Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Towards Automatic Bayesian Optimization: A first step involving
acquisition functions [0.0]
ベイズ最適化 (Bayesian optimization) は、ブラックボックスの最適化、すなわち解析的表現にアクセスできない関数の最先端技術である。
獲得関数を自動調整するいくつかの手法を探索し,自動ベイズ最適化に対する最初の試みを提案する。
論文 参考訳(メタデータ) (2020-03-21T12:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。