論文の概要: Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities
- arxiv url: http://arxiv.org/abs/2308.13420v1
- Date: Fri, 25 Aug 2023 15:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:30:28.325204
- Title: Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities
- Title(参考訳): 強化学習支援進化アルゴリズム:調査と研究の機会
- Authors: Yanjie Song, Yutong Wu, Yangyang Guo, Ran Yan, P. N. Suganthan, Yue
Zhang, Witold Pedrycz, Yingwu Chen, Swagatam Das, Rammohan Mallipeddi,
Oladayo Solomon Ajani
- Abstract要約: 進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
強化学習と進化的アルゴリズムを導入する。
次に、RL-EA統合手法、RL-EAが採用したRL-EA支援戦略とその応用について論じる。
- 参考スコア(独自算出の注目度): 61.526437366038074
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary algorithms (EA), a class of stochastic search algorithms based
on the principles of natural evolution, have received widespread acclaim for
their exceptional performance in various optimization problems. While
researchers worldwide have proposed a wide variety of EAs, certain limitations
remain, such as slow convergence speed and poor generalization capabilities.
Consequently, numerous scholars are actively exploring improvements to
algorithmic structures, operators, search patterns, etc., to enhance their
optimization performance. Reinforcement learning (RL) integrated as a component
in the EA framework has demonstrated superior performance in recent years. This
paper presents a comprehensive survey on the integration of reinforcement
learning into the evolutionary algorithm, referred to as reinforcement
learning-assisted evolutionary algorithm (RL-EA). Firstly, we introduce
reinforcement learning and the evolutionary algorithm. We then provide a
taxonomy of RL-EA. We then discuss the RL-EA integration method, the
RL-assisted strategy adopted by RL-EA, and its applications according to the
existing literature. The RL-assisted strategy is divided according to the
implemented functions including the solution generation, learnable objective
function, algorithm/operator/sub-population selection, parameter adaptation,
and other strategies. Subsequently, other attribute settings of RL in RL-EA are
discussed. Finally, we analyze potential directions for future research. This
paper serves as a comprehensive resource for researchers who are interested in
RL-EA as it provides an overview of the current state-of-the-art and highlights
the associated challenges. By leveraging this survey, readers can swiftly gain
insights into RL-EA to develop efficient algorithms, thereby fostering further
advancements in this emerging field.
- Abstract(参考訳): 自然進化の原理に基づく確率的探索アルゴリズムのクラスである進化アルゴリズム(ea)は、様々な最適化問題における例外的な性能で広く評価されている。
世界中の研究者が様々なEAを提案しているが、収束速度の低下や一般化能力の低下など、いくつかの制限が残っている。
その結果,アルゴリズム構造,演算子,探索パターンなどの改良を積極的に検討し,最適化性能の向上を図っている。
EAフレームワークのコンポーネントとして統合された強化学習(RL)は、近年、優れたパフォーマンスを示している。
本稿では、強化学習支援進化アルゴリズム(RL-EA)と呼ばれる進化アルゴリズムへの強化学習の統合に関する総合的な調査を行う。
まず,強化学習と進化的アルゴリズムを紹介する。
RL-EAの分類法を提供する。
次に、RL-EA統合手法、RL-EAが採用したRL-EA支援戦略、および既存文献による適用について述べる。
RL支援戦略は、ソリューション生成、学習可能な目的関数、アルゴリズム/オペレータ/サブポピュレーション選択、パラメータ適応、その他の戦略を含む実装された機能に応じて分割される。
その後、RL-EAにおけるRLの他の属性設定について論じる。
最後に,今後の研究の方向性について分析する。
本稿では,RL-EAに関心を持つ研究者を対象とした総合的な資料として,現状の概観と課題の強調を行う。
この調査を利用することで、読者はRL-EAに関する洞察を迅速に得ることができ、効率的なアルゴリズムを開発することができる。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Discovering General Reinforcement Learning Algorithms with Adversarial
Environment Design [54.39859618450935]
メタ学習型更新ルールは,広範囲のRLタスクで良好に機能するアルゴリズムの発見を期待して,実現可能であることを示す。
Learned Policy Gradient (LPG)のようなアルゴリズムによる印象的な初期結果にもかかわらず、これらのアルゴリズムが目に見えない環境に適用される場合、まだギャップが残っている。
本研究では,メタ教師付き学習分布の特性が,これらのアルゴリズムの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2023-10-04T12:52:56Z) - BiERL: A Meta Evolutionary Reinforcement Learning Framework via Bilevel
Optimization [34.24884427152513]
双レベル最適化(BiERL)による一般的なメタERLフレームワークを提案する。
我々は、内部レベルの進化した経験を情報的人口表現に組み込むエレガントなメタレベルアーキテクチャを設計する。
我々は MuJoCo と Box2D タスクの広範な実験を行い、一般的なフレームワークとして BiERL が様々なベースラインを上回り、ERL アルゴリズムの多様性の学習性能を一貫して向上することを検証する。
論文 参考訳(メタデータ) (2023-08-01T09:31:51Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - Ensemble Reinforcement Learning in Continuous Spaces -- A Hierarchical
Multi-Step Approach for Policy Training [4.982806898121435]
本稿では,革新的な多段階統合手法に基づいて,基礎学習者のアンサンブルを訓練する手法を提案する。
本手法は,学習者間コラボレーションを効果的に促進するアンサンブルDRLのための新しい階層学習アルゴリズムの開発を可能にする。
また、このアルゴリズムは複数のベンチマークRL問題に対していくつかの最先端のDRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-09-29T00:42:44Z) - Behavioral Priors and Dynamics Models: Improving Performance and Domain
Transfer in Offline RL [82.93243616342275]
適応行動優先型オフラインモデルに基づくRL(Adaptive Behavioral Priors:MABE)を導入する。
MABEは、ドメイン内の一般化をサポートする動的モデルと、ドメイン間の一般化をサポートする振る舞いの事前が相補的であることの発見に基づいている。
クロスドメインの一般化を必要とする実験では、MABEが先行手法より優れていることが判明した。
論文 参考訳(メタデータ) (2021-06-16T20:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。