論文の概要: ConfigX: Modular Configuration for Evolutionary Algorithms via Multitask Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2412.07507v2
- Date: Sun, 15 Dec 2024 15:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:02:28.686575
- Title: ConfigX: Modular Configuration for Evolutionary Algorithms via Multitask Reinforcement Learning
- Title(参考訳): ConfigX:マルチタスク強化学習による進化的アルゴリズムのモジュール構成
- Authors: Hongshu Guo, Zeyuan Ma, Jiacheng Chen, Yining Ma, Zhiguang Cao, Xinglin Zhang, Yue-Jiao Gong,
- Abstract要約: 本稿では,多様なEAを促進する汎用構成エージェント(モデル)を学習可能な,MetaBBOフレームワークの新しいパラダイムであるConfigXを紹介する。
我々のConfigXは、大規模な事前学習の後、目に見えないタスクに対して堅牢なゼロショットの一般化を実現し、最先端のベースラインを上回っます。
- 参考スコア(独自算出の注目度): 24.66031883340297
- License:
- Abstract: Recent advances in Meta-learning for Black-Box Optimization (MetaBBO) have shown the potential of using neural networks to dynamically configure evolutionary algorithms (EAs), enhancing their performance and adaptability across various BBO instances. However, they are often tailored to a specific EA, which limits their generalizability and necessitates retraining or redesigns for different EAs and optimization problems. To address this limitation, we introduce ConfigX, a new paradigm of the MetaBBO framework that is capable of learning a universal configuration agent (model) for boosting diverse EAs. To achieve so, our ConfigX first leverages a novel modularization system that enables the flexible combination of various optimization sub-modules to generate diverse EAs during training. Additionally, we propose a Transformer-based neural network to meta-learn a universal configuration policy through multitask reinforcement learning across a designed joint optimization task space. Extensive experiments verify that, our ConfigX, after large-scale pre-training, achieves robust zero-shot generalization to unseen tasks and outperforms state-of-the-art baselines. Moreover, ConfigX exhibits strong lifelong learning capabilities, allowing efficient adaptation to new tasks through fine-tuning. Our proposed ConfigX represents a significant step toward an automatic, all-purpose configuration agent for EAs.
- Abstract(参考訳): ブラックボックス最適化のためのメタラーニング(MetaBBO)の最近の進歩は、ニューラルネットワークを使用して進化的アルゴリズム(EA)を動的に構成する可能性を示し、さまざまなBBOインスタンスのパフォーマンスと適応性を高めている。
しかし、それらはしばしば特定のEAに合わせて調整され、それらの一般化可能性を制限するとともに、異なるEAの再訓練や再設計や最適化の問題が必要になる。
この制限に対処するため,多種多様なEAを促進する汎用構成エージェント(モデル)を学習可能な,MetaBBOフレームワークの新しいパラダイムであるConfigXを紹介した。
ConfigXはまず,多様な最適化サブモジュールを柔軟に組み合わせて,トレーニング中に多様なEAを生成する,新しいモジュール化システムを活用しています。
さらに、設計された共同最適化タスク空間にまたがるマルチタスク強化学習を通じて、普遍的な構成ポリシーをメタラーニングするトランスフォーマーベースのニューラルネットワークを提案する。
大規模な事前トレーニングの後、我々のConfigXは、目に見えないタスクに対して堅牢なゼロショットの一般化を実現し、最先端のベースラインを上回ります。
さらに、ConfigXは強力な生涯学習能力を示し、微調整による新しいタスクへの効率的な適応を可能にする。
提案するConfigXは,EAの自動的全目的構成エージェントに向けた重要なステップである。
関連論文リスト
- Extending Contextual Self-Modulation: Meta-Learning Across Modalities, Task Dimensionalities, and Data Regimes [0.7373617024876724]
Contextual Self-Modulation (CSM)は、Neural Context Flow (NCF)フレームワークの強力な正規化メカニズムである。
CSMを無限次元タスクに拡張する$i$CSMと、スケーラビリティを向上させる$i$NCFという2つの拡張を導入する。
これらの拡張は、様々なタスクに関する包括的な実験を通じて実証される。
論文 参考訳(メタデータ) (2024-10-02T15:19:35Z) - Duo-LLM: A Framework for Studying Adaptive Computation in Large Language Models [16.16372459671255]
大規模言語モデル(LLM)は通常、固定された計算予算を使用してトークンによって出力トークンを生成する。
LLMの各フィードフォワードネットワーク層に小さな補助モジュールを統合する新しいフレームワークを提案する。
訓練されたルータがオーラクルと異なる動作をしており、しばしば準最適解が得られることを示す。
論文 参考訳(メタデータ) (2024-10-01T16:10:21Z) - Flextron: Many-in-One Flexible Large Language Model [85.93260172698398]
我々は,フレキシブルモデル展開をサポートするネットワークアーキテクチャとポストトレーニングモデル最適化フレームワークであるFlextronを紹介する。
本稿では,既存の学習用LDMをFlextronモデルに変換するための,サンプル効率のよいトレーニング手法と関連するルーティングアルゴリズムを提案する。
我々は、複数のエンドツーエンドトレーニングされた変種や他の最先端の弾性ネットワークよりも優れた性能を示し、これらは全て、オリジナルの事前訓練と比較してわずか7.63%のトークンを消費する単一の事前訓練ランで実現している。
論文 参考訳(メタデータ) (2024-06-11T01:16:10Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - BiERL: A Meta Evolutionary Reinforcement Learning Framework via Bilevel
Optimization [34.24884427152513]
双レベル最適化(BiERL)による一般的なメタERLフレームワークを提案する。
我々は、内部レベルの進化した経験を情報的人口表現に組み込むエレガントなメタレベルアーキテクチャを設計する。
我々は MuJoCo と Box2D タスクの広範な実験を行い、一般的なフレームワークとして BiERL が様々なベースラインを上回り、ERL アルゴリズムの多様性の学習性能を一貫して向上することを検証する。
論文 参考訳(メタデータ) (2023-08-01T09:31:51Z) - Neuroevolution of Recurrent Architectures on Control Tasks [3.04585143845864]
並列に並列な進化的アルゴリズムを実装し、19のOpenAI Gym状態に基づく強化学習制御タスクで実験を行う。
動的エージェントは, パラメータの桁数を桁違いに減らしながら, 勾配に基づくエージェントの性能に適合するか, 上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-03T16:29:18Z) - E2-AEN: End-to-End Incremental Learning with Adaptively Expandable
Network [57.87240860624937]
本稿では,E2-AENという,エンドツーエンドのトレーニング可能な適応拡張可能なネットワークを提案する。
以前のタスクの精度を落とさずに、新しいタスクのための軽量な構造を動的に生成する。
E2-AENはコストを削減し、あらゆるフィードフォワードアーキテクチャをエンドツーエンドで構築できる。
論文 参考訳(メタデータ) (2022-07-14T09:04:51Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and
Architectures [61.73533544385352]
本稿ではメタパーターブ(MetaPerturb)というトランスファー可能な摂動モデルを提案する。
MetaPerturbは、レイヤやタスクにまたがる多様な分散を訓練したセット関数であるため、異種タスクやアーキテクチャを一般化することができる。
論文 参考訳(メタデータ) (2020-06-13T02:54:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。