論文の概要: MA-BBOB: Many-Affine Combinations of BBOB Functions for Evaluating
AutoML Approaches in Noiseless Numerical Black-Box Optimization Contexts
- arxiv url: http://arxiv.org/abs/2306.10627v1
- Date: Sun, 18 Jun 2023 19:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:36:50.193694
- Title: MA-BBOB: Many-Affine Combinations of BBOB Functions for Evaluating
AutoML Approaches in Noiseless Numerical Black-Box Optimization Contexts
- Title(参考訳): MA-BBOB:ノイズのない数値ブラックボックス最適化文脈における自動ML手法の評価のためのBBOB関数の多要素結合
- Authors: Diederick Vermetten, Furong Ye, Thomas B\"ack, Carola Doerr
- Abstract要約: (MA-)BBOBは、一般公開のIOHファウンサープラットフォーム上に構築されている。
パフォーマンス分析と視覚化のためのインタラクティブなIOHanalyzerモジュールへのアクセスを提供し、(MA-)BBOB関数で利用可能なリッチで成長中のデータコレクションとの比較を可能にする。
- 参考スコア(独自算出の注目度): 0.8258451067861933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extending a recent suggestion to generate new instances for numerical
black-box optimization benchmarking by interpolating pairs of the
well-established BBOB functions from the COmparing COntinuous Optimizers (COCO)
platform, we propose in this work a further generalization that allows multiple
affine combinations of the original instances and arbitrarily chosen locations
of the global optima. We demonstrate that the MA-BBOB generator can help fill
the instance space, while overall patterns in algorithm performance are
preserved. By combining the landscape features of the problems with the
performance data, we pose the question of whether these features are as useful
for algorithm selection as previous studies suggested. MA-BBOB is built on the
publicly available IOHprofiler platform, which facilitates standardized
experimentation routines, provides access to the interactive IOHanalyzer module
for performance analysis and visualization, and enables comparisons with the
rich and growing data collection available for the (MA-)BBOB functions.
- Abstract(参考訳): 連続最適化(coco)プラットフォームから確立されたbbob関数のペアを補間することにより、数値ブラックボックス最適化ベンチマークのための新しいインスタンスを生成するための最近の提案を拡張し、本研究では、元のインスタンスと任意に選択されたグローバルオプティマの複数のアフィン結合を可能にするさらなる一般化を提案する。
ma-bbobジェネレータがインスタンス空間を満たし、アルゴリズム性能の全体的なパターンが保存されていることを実証する。
課題のランドスケープ特徴と性能データを組み合わせることで,これらの特徴がアルゴリズムの選択に有用かどうかを従来の研究が示唆したように疑問視する。
MA-BBOBは、標準化された実験ルーチンを促進し、パフォーマンス分析と視覚化のためにインタラクティブなIOHanalyzerモジュールへのアクセスを提供し、(MA-)BBOB関数で利用可能なリッチで成長するデータコレクションとの比較を可能にする。
関連論文リスト
- Impact of Training Instance Selection on Automated Algorithm Selection Models for Numerical Black-box Optimization [0.40498500266986387]
我々は,MA-BBOB生成関数が自動機械学習手法の理想的なテストベッドであることを示す。
8つのアルゴリズムの集合内で性能相補性を研究することにより,AASから得られる潜在的な利得を解析する。
トレーニングにBBOBコンポーネント関数を単純に使うと、テスト性能が低下することを示す。
論文 参考訳(メタデータ) (2024-04-11T08:03:53Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Simulation Based Bayesian Optimization [0.6526824510982799]
本稿では,獲得関数を最適化するための新しいアプローチとして,シミュレーションベースベイズ最適化(SBBO)を提案する。
SBBOは、離散変数を持つ空間に適した代理モデルを使用することができる。
代理モデルの様々な選択を用いたSBBO法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2024-01-19T16:56:11Z) - MA-BBOB: A Problem Generator for Black-Box Optimization Using Affine
Combinations and Shifts [1.2617078020344619]
本稿では,BBOBスイートをアフィン結合の成分関数として用いるMA-BBOB関数生成器を提案する。
我々は,MA-BBOBがアルゴリズムセレクタの幅広いトレーニングデータとテストデータを生成する可能性を示す。
論文 参考訳(メタデータ) (2023-12-18T10:23:09Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - A General Recipe for Likelihood-free Bayesian Optimization [115.82591413062546]
我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
論文 参考訳(メタデータ) (2022-06-27T03:55:27Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Bayesian Optimization over Permutation Spaces [30.650753803587794]
BOPS (Permutation Spaces) に対する2つのアルゴリズムの提案と評価を行った。
BOPS-Tの性能を理論的に解析し,その後悔がサブリニアに増加することを示す。
複数の合成および実世界のベンチマーク実験により、BOPS-TとBOPS-Hは、空間に対する最先端のBOアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-12-02T08:20:50Z) - Preferential Batch Bayesian Optimization [16.141259199997005]
優先バッチベイズ最適化(PBBO)は、潜在関数の最適性を見つけるための新しいフレームワークである。
本稿では,ベイズ最適化における従来の手法の一般化と拡張について述べる。
論文 参考訳(メタデータ) (2020-03-25T14:59:15Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。