論文の概要: MetaBox-v2: A Unified Benchmark Platform for Meta-Black-Box Optimization
- arxiv url: http://arxiv.org/abs/2505.17745v1
- Date: Fri, 23 May 2025 11:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.021261
- Title: MetaBox-v2: A Unified Benchmark Platform for Meta-Black-Box Optimization
- Title(参考訳): MetaBox-v2:メタブラックボックス最適化のための統一ベンチマークプラットフォーム
- Authors: Zeyuan Ma, Yue-Jiao Gong, Hongshu Guo, Wenjie Qiu, Sijie Ma, Hongqiao Lian, Jiajun Zhan, Kaixu Chen, Chen Wang, Zhiyang Huang, Zechuan Huang, Guojun Peng, Ran Cheng, Yining Ma,
- Abstract要約: MetaBox-v2は4つの新機能を備えたマイルストーンアップグレードです。
シングルオブジェクト、マルチオブジェクト、マルチモデル、マルチタスク最適化シナリオにまたがる18の総合的/現実的なタスクからなる総合ベンチマークスイート。
有意義な洞察は、実践者とその分野への新規者に対する徹底的かつ詳細な分析から導き出される。
- 参考スコア(独自算出の注目度): 17.36826574167763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-Black-Box Optimization (MetaBBO) streamlines the automation of optimization algorithm design through meta-learning. It typically employs a bi-level structure: the meta-level policy undergoes meta-training to reduce the manual effort required in developing algorithms for low-level optimization tasks. The original MetaBox (2023) provided the first open-source framework for reinforcement learning-based single-objective MetaBBO. However, its relatively narrow scope no longer keep pace with the swift advancement in this field. In this paper, we introduce MetaBox-v2 (https://github.com/MetaEvo/MetaBox) as a milestone upgrade with four novel features: 1) a unified architecture supporting RL, evolutionary, and gradient-based approaches, by which we reproduce 23 up-to-date baselines; 2) efficient parallelization schemes, which reduce the training/testing time by 10-40x; 3) a comprehensive benchmark suite of 18 synthetic/realistic tasks (1900+ instances) spanning single-objective, multi-objective, multi-model, and multi-task optimization scenarios; 4) plentiful and extensible interfaces for custom analysis/visualization and integrating to external optimization tools/benchmarks. To show the utility of MetaBox-v2, we carry out a systematic case study that evaluates the built-in baselines in terms of the optimization performance, generalization ability and learning efficiency. Valuable insights are concluded from thorough and detailed analysis for practitioners and those new to the field.
- Abstract(参考訳): Meta-Black-Box Optimization (MetaBBO) は、メタ学習を通じて最適化アルゴリズム設計の自動化を効率化する。
メタレベルのポリシーは、低レベルの最適化タスクのためのアルゴリズムを開発するのに必要な手作業を減らすために、メタレベルのトレーニングを行う。
オリジナルのMetaBox (2023)は、強化学習ベースのシングルオブジェクトのMetaBBOのための最初のオープンソースフレームワークを提供する。
しかし、比較的狭い範囲は、この分野の急速な進歩に追随しない。
本稿では,MetaBox-v2(https://github.com/MetaEvo/MetaBox)を,4つの新機能を備えたマイルストーンアップグレードとして紹介する。
1) RL, 進化, 勾配に基づくアプローチをサポートする統一アーキテクチャで, 最新の23のベースラインを再現する。
2 効率のよい並列化方式により、訓練・試験時間を10〜40倍に短縮する。
3) 単目的,多目的,マルチモデル,マルチタスク最適化シナリオにまたがる18の合成・現実的タスク(1900+インスタンス)からなる総合ベンチマークスイート。
4) カスタム分析/視覚化と外部最適化ツール/ベンチマークの統合のための豊富で拡張可能なインターフェース。
MetaBox-v2の有用性を示すために,最適化性能,一般化能力,学習効率の観点から,組込みベースラインの評価を行う。
有意義な洞察は、実践者とその分野への新規者に対する徹底的かつ詳細な分析から導き出される。
関連論文リスト
- PlatMetaX: An Integrated MATLAB platform for Meta-Black-Box Optimization [13.141855165689448]
最適化アルゴリズムの開発,評価,比較を行う新しいプラットフォームであるPlatMetaXを提案する。
PlatMetaXはMetaBoxとPlatEMOの強みを統合し、最適化アルゴリズムの開発、評価、比較のための包括的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-03-26T02:03:35Z) - Learning Versatile Optimizers on a Compute Diet [20.69804303768643]
学習アーキテクチャやメタトレーニングの手順における重要な要素は、強力なメタ一般化につながる可能性がある。
そこで本稿では,評価課題のセットに基づいて,大規模システムの定量的性能を確実に評価するための評価指標を提案する。
提案手法であるCeloは,学習者のメタ一般化性能向上に大きく貢献する。
論文 参考訳(メタデータ) (2025-01-22T06:10:27Z) - MetaBox: A Benchmark Platform for Meta-Black-Box Optimization with
Reinforcement Learning [25.687304354503148]
MetaBBO-RLメソッドの開発と評価に特化した,最初のベンチマークプラットフォームであるMetaBoxを紹介する。
MetaBoxはフレキシブルなアルゴリズムテンプレートを提供しており、ユーザーはプラットフォーム内で独自のデザインをシームレスに実装することができる。
合成シナリオから現実シナリオまで,300を超える問題インスタンスの幅広いスペクトルと,19のベースラインメソッドの広範なライブラリを提供する。
論文 参考訳(メタデータ) (2023-10-12T11:55:17Z) - Meta Mirror Descent: Optimiser Learning for Fast Convergence [85.98034682899855]
我々は、勾配降下ではなくミラー降下から始まり、対応するブレグマン発散をメタラーニングする。
このパラダイム内では、後悔の限界を最小化するための新しいメタ学習目標を定式化する。
多くのメタ学習オプティマイザとは異なり、収束と一般化の保証もサポートしており、検証データを必要としない。
論文 参考訳(メタデータ) (2022-03-05T11:41:13Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - BOML: A Modularized Bilevel Optimization Library in Python for Meta
Learning [52.90643948602659]
BOMLはモジュール化された最適化ライブラリで、いくつかのメタ学習アルゴリズムを共通の双方向最適化フレームワークに統合する。
さまざまなイテレーションモジュールとともに階層的な最適化パイプラインを提供し、メタ学習メソッドの主流カテゴリを解決するために使用できる。
論文 参考訳(メタデータ) (2020-09-28T14:21:55Z) - Guarantees for Tuning the Step Size using a Learning-to-Learn Approach [18.838453594698166]
ステップサイズを2次的損失に調整する簡単な問題に対して、学習から学習までのアプローチに対してメタ最適化を保証する。
メタ・グラディエント・オブジェクトを設計してメタ・グラディエントを束縛したままにしておく方法はあるが、バックプロパゲーションを用いて直接メタ・グラディエントを計算すれば、数値的な問題が発生する。
また,メタオブジェクトを別個の検証セットで計算し,学習性能を確保する必要がある場合の特徴付けを行う。
論文 参考訳(メタデータ) (2020-06-30T02:59:35Z) - On the Global Optimality of Model-Agnostic Meta-Learning [133.16370011229776]
モデル・ア・メタラーニング(MAML)は、メタラーニングを二段階最適化問題として定式化し、内部レベルが各サブタスクを、共有された事前に基づいて解決する。
学習と教師あり学習の両方においてMAMLが達成した定常点の最適性を特徴付ける。
論文 参考訳(メタデータ) (2020-06-23T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。