論文の概要: Impact of Training Instance Selection on Automated Algorithm Selection Models for Numerical Black-box Optimization
- arxiv url: http://arxiv.org/abs/2404.07539v1
- Date: Thu, 11 Apr 2024 08:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 14:39:15.995821
- Title: Impact of Training Instance Selection on Automated Algorithm Selection Models for Numerical Black-box Optimization
- Title(参考訳): 数値ブラックボックス最適化のための自動アルゴリズム選択モデルにおける学習事例選択の影響
- Authors: Konstantin Dietrich, Diederick Vermetten, Carola Doerr, Pascal Kerschke,
- Abstract要約: 我々は,MA-BBOB生成関数が自動機械学習手法の理想的なテストベッドであることを示す。
8つのアルゴリズムの集合内で性能相補性を研究することにより,AASから得られる潜在的な利得を解析する。
トレーニングにBBOBコンポーネント関数を単純に使うと、テスト性能が低下することを示す。
- 参考スコア(独自算出の注目度): 0.40498500266986387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently proposed MA-BBOB function generator provides a way to create numerical black-box benchmark problems based on the well-established BBOB suite. Initial studies on this generator highlighted its ability to smoothly transition between the component functions, both from a low-level landscape feature perspective, as well as with regard to algorithm performance. This suggests that MA-BBOB-generated functions can be an ideal testbed for automated machine learning methods, such as automated algorithm selection (AAS). In this paper, we generate 11800 functions in dimensions $d=2$ and $d=5$, respectively, and analyze the potential gains from AAS by studying performance complementarity within a set of eight algorithms. We combine this performance data with exploratory landscape features to create an AAS pipeline that we use to investigate how to efficiently select training sets within this space. We show that simply using the BBOB component functions for training yields poor test performance, while the ranking between uniformly chosen and diversity-based training sets strongly depends on the distribution of the test set.
- Abstract(参考訳): 最近提案されたMA-BBOB関数生成器は、確立されたBBOBスイートに基づいて、数値的なブラックボックスベンチマーク問題を生成する方法を提供する。
このジェネレータの初期の研究は、低レベルのランドスケープの特徴の観点からも、アルゴリズムの性能に関しても、コンポーネント関数間のスムーズな遷移を可能にすることを強調した。
このことは、MA-BBOB生成関数が自動アルゴリズム選択(AAS)のような自動機械学習手法の理想的なテストベッドとなることを示唆している。
本稿では,それぞれ次元が$d=2$,$d=5$の11800個の関数を生成し,AASのポテンシャルゲインを8つのアルゴリズムの集合内で性能相補性を調べることによって解析する。
このパフォーマンスデータを探索的なランドスケープ機能と組み合わせて、この空間内のトレーニングセットを効率的に選択する方法を調査するために使用するAASパイプラインを作成します。
また,BBOB成分関数をトレーニングに使用するとテスト性能が低下するのに対して,一様に選択されたトレーニングセットと多様性に基づくトレーニングセットのランク付けはテストセットの分布に大きく依存することを示した。
関連論文リスト
- Landscape-Aware Automated Algorithm Configuration using Multi-output Mixed Regression and Classification [0.01649298969786889]
モデル学習におけるランダム生成関数(RGF)の可能性について検討する。
自動アルゴリズム構成(AAC)に焦点を当てる。
混合回帰および分類タスクの処理における高密度ニューラルネットワーク(NN)モデルの性能解析を行う。
論文 参考訳(メタデータ) (2024-09-02T20:04:41Z) - Reinforced In-Context Black-Box Optimization [64.25546325063272]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成される最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,テキストレグレット・ツー・ゴートークンによる最適化履歴の増大である。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - MA-BBOB: A Problem Generator for Black-Box Optimization Using Affine
Combinations and Shifts [1.2617078020344619]
本稿では,BBOBスイートをアフィン結合の成分関数として用いるMA-BBOB関数生成器を提案する。
我々は,MA-BBOBがアルゴリズムセレクタの幅広いトレーニングデータとテストデータを生成する可能性を示す。
論文 参考訳(メタデータ) (2023-12-18T10:23:09Z) - MA-BBOB: Many-Affine Combinations of BBOB Functions for Evaluating
AutoML Approaches in Noiseless Numerical Black-Box Optimization Contexts [0.8258451067861933]
(MA-)BBOBは、一般公開のIOHファウンサープラットフォーム上に構築されている。
パフォーマンス分析と視覚化のためのインタラクティブなIOHanalyzerモジュールへのアクセスを提供し、(MA-)BBOB関数で利用可能なリッチで成長中のデータコレクションとの比較を可能にする。
論文 参考訳(メタデータ) (2023-06-18T19:32:12Z) - DynamoRep: Trajectory-Based Population Dynamics for Classification of
Black-box Optimization Problems [0.755972004983746]
簡単な統計量を用いて最適化アルゴリズムの軌道を記述する特徴抽出法を提案する。
提案するDynamoRep機能は,最適化アルゴリズムが動作している問題クラスを特定するのに十分な情報を取得する。
論文 参考訳(メタデータ) (2023-06-08T06:57:07Z) - Active Finetuning: Exploiting Annotation Budget in the
Pretraining-Finetuning Paradigm [132.9949120482274]
本稿では,事前学習ファインタニングパラダイムにおけるアノテーションのためのサンプルの選択に焦点を当てる。
本研究では,アクティブな微調整タスクのためのActiveFTと呼ばれる新しい手法を提案する。
画像分類とセマンティックセグメンテーションの両方に基づくベースラインよりも優れたActiveFTの先行性能と高効率性を示す。
論文 参考訳(メタデータ) (2023-03-25T07:17:03Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。