論文の概要: Auto-configuring Exploration-Exploitation Tradeoff in Evolutionary Computation via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2404.08239v1
- Date: Fri, 12 Apr 2024 04:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:55:31.070020
- Title: Auto-configuring Exploration-Exploitation Tradeoff in Evolutionary Computation via Deep Reinforcement Learning
- Title(参考訳): 深層強化学習による進化計算における自動探索・探索トレードオフ
- Authors: Zeyuan Ma, Jiacheng Chen, Hongshu Guo, Yining Ma, Yue-Jiao Gong,
- Abstract要約: 進化計算(EC)アルゴリズムは、個人のグループを利用して最適解を協調的に探索する。
本稿では,ECサーチプロセスを通じて,調査トレードオフ(EET)を自律的に設定し,適応する深層強化学習ベースのフレームワークを提案する。
提案するフレームワークは,その単純さ,有効性,一般化性を特徴とし,多数の既存ECアルゴリズムを拡張できる可能性を秘めている。
- 参考スコア(独自算出の注目度): 14.217528205889296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolutionary computation (EC) algorithms, renowned as powerful black-box optimizers, leverage a group of individuals to cooperatively search for the optimum. The exploration-exploitation tradeoff (EET) plays a crucial role in EC, which, however, has traditionally been governed by manually designed rules. In this paper, we propose a deep reinforcement learning-based framework that autonomously configures and adapts the EET throughout the EC search process. The framework allows different individuals of the population to selectively attend to the global and local exemplars based on the current search state, maximizing the cooperative search outcome. Our proposed framework is characterized by its simplicity, effectiveness, and generalizability, with the potential to enhance numerous existing EC algorithms. To validate its capabilities, we apply our framework to several representative EC algorithms and conduct extensive experiments on the augmented CEC2021 benchmark. The results demonstrate significant improvements in the performance of the backbone algorithms, as well as favorable generalization across diverse problem classes, dimensions, and population sizes. Additionally, we provide an in-depth analysis of the EET issue by interpreting the learned behaviors of EC.
- Abstract(参考訳): 進化的計算(EC)アルゴリズムは、強力なブラックボックスオプティマイザとして知られ、個人のグループを活用して最適な解を求める。
調査・探索トレードオフ(EET)はECにおいて重要な役割を担っているが、伝統的に手動で設計された規則によって統治されてきた。
本稿では,EC検索プロセスを通じてEETを自律的に構成し,適応する,深層強化学習に基づくフレームワークを提案する。
この枠組みにより、人口の異なる個人が、現在の検索状況に基づいて、グローバルおよびローカルな見習いに選択的に参加し、協力的な検索結果を最大化することができる。
提案するフレームワークは,その単純さ,有効性,一般化性を特徴とし,多数の既存ECアルゴリズムを拡張できる可能性を秘めている。
本手法をいくつかの代表的ECアルゴリズムに適用し,拡張型CEC2021ベンチマークで広範な実験を行った。
その結果、バックボーンアルゴリズムの性能は大幅に向上し、様々な問題クラス、次元、人口規模にまたがる優れた一般化が得られた。
さらに、ECの学習動作を解釈することで、EET問題の詳細な分析を行う。
関連論文リスト
- Effective Reinforcement Learning Based on Structural Information Principles [19.82391136775341]
本稿では, 効率的な意思決定・意思決定のための, 新規で汎用的な構造情報原則に基づくフレームワーク,すなわちSIDMを提案する。
SIDMは、様々な単一エージェントおよびマルチエージェントRLアルゴリズムに柔軟に組み込むことができ、その性能を向上させることができる。
論文 参考訳(メタデータ) (2024-04-15T13:02:00Z) - Constrained Multi-objective Optimization with Deep Reinforcement Learning Assisted Operator Selection [28.088046969822543]
本研究では,Deep Reinforcement Learningを支援するオンラインオペレータ選択フレームワークを提案する。
提案手法は,現在の状況に応じて個体群の改善を最大化する演算子を適応的に選択することができる。
このフレームワークは4つの人気のあるCMOEAに組み込まれ、42のベンチマーク問題で評価されている。
論文 参考訳(メタデータ) (2024-01-15T09:51:19Z) - Discovering General Reinforcement Learning Algorithms with Adversarial
Environment Design [54.39859618450935]
メタ学習型更新ルールは,広範囲のRLタスクで良好に機能するアルゴリズムの発見を期待して,実現可能であることを示す。
Learned Policy Gradient (LPG)のようなアルゴリズムによる印象的な初期結果にもかかわらず、これらのアルゴリズムが目に見えない環境に適用される場合、まだギャップが残っている。
本研究では,メタ教師付き学習分布の特性が,これらのアルゴリズムの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2023-10-04T12:52:56Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - A Novel Multiagent Flexibility Aggregation Framework [1.7132914341329848]
本稿では,多エージェントアーキテクチャを包含する新たなDERアグリゲーションフレームワークを提案する。
アーキテクチャの重要なコンポーネントのひとつはローカルフレキシビリティ・エスペクタ(LFE)エージェントです。
論文 参考訳(メタデータ) (2023-07-17T11:36:15Z) - On the Importance of Exploration for Generalization in Reinforcement
Learning [89.63074327328765]
本研究では,不確実性の高い状態の探索を支援する方法であるEDE: Exploration via Distributional Ensembleを提案する。
当社のアルゴリズムは,ProcgenとCrafterの両面で最先端を実現するための,最初のバリューベースアプローチである。
論文 参考訳(メタデータ) (2023-06-08T18:07:02Z) - Hierarchical Deep Counterfactual Regret Minimization [53.86223883060367]
本稿では,大規模な状態空間や深部ゲームツリーを含むタスクにおいて,学習効率を向上させる革新的な手法であるDeep CFRの最初の階層バージョンを紹介する。
HDCFRのこれまでの研究よりも顕著な利点は、事前に定義された(人間的な)専門知識による学習の促進と、同様のタスクに移行可能なスキルの獲得を促進する能力である。
論文 参考訳(メタデータ) (2023-05-27T02:05:41Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Interactive Evolutionary Multi-Objective Optimization via
Learning-to-Rank [8.421614560290609]
本稿では,関心の解(SOI)を対話的に見つけるために,嗜好に基づくEMOアルゴリズムを設計するためのフレームワークを開発する。
EMOの中核となる考え方は、人間をEMOのループに巻き込むことだ。何回か繰り返すと、DMは数人の現職候補者に対してフィードバックを求めるよう招待される。
このような情報を集めることで、彼女の好みは学習からランクまでニューラルネットワークによって徐々に学習され、次にベースラインEMOアルゴリズムを導出するために応用される。
論文 参考訳(メタデータ) (2022-04-06T06:34:05Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - Improving EEG Decoding via Clustering-based Multi-task Feature Learning [27.318646122939537]
機械学習は、EEGパターンをより良い復号精度に最適化する有望な技術を提供します。
既存のアルゴリズムは、真のEEGサンプル分布を捕捉する基礎となるデータ構造を効果的に探索しない。
クラスタリングに基づく脳波パターン復号のためのマルチタスク機能学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-12T13:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。