論文の概要: Bridging Evolutionary Algorithms and Reinforcement Learning: A
Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2401.11963v2
- Date: Sun, 18 Feb 2024 13:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 03:17:08.034719
- Title: Bridging Evolutionary Algorithms and Reinforcement Learning: A
Comprehensive Survey
- Title(参考訳): 進化的アルゴリズムと強化学習の橋渡し:包括的調査
- Authors: Pengyi Li, Jianye Hao, Hongyao Tang, Xian Fu, Yan Zheng, Ke Tang
- Abstract要約: 進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
- 参考スコア(独自算出の注目度): 53.94873257861402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolutionary Reinforcement Learning (ERL), which integrates Evolutionary
Algorithms (EAs) and Reinforcement Learning (RL) for optimization, has
demonstrated remarkable performance advancements. By fusing the strengths of
both approaches, ERL has emerged as a promising research direction. This survey
offers a comprehensive overview of the diverse research branches in ERL.
Specifically, we systematically summarize recent advancements in relevant
algorithms and identify three primary research directions: EA-assisted
optimization of RL, RL-assisted optimization of EA, and synergistic
optimization of EA and RL. Following that, we conduct an in-depth analysis of
each research direction, organizing multiple research branches. We elucidate
the problems that each branch aims to tackle and how the integration of EA and
RL addresses these challenges. In conclusion, we discuss potential challenges
and prospective future research directions across various research directions.
To facilitate researchers in delving into ERL, we organize the algorithms and
codes involved on
https://github.com/yeshenpy/Awesome-Evolutionary-Reinforcement-Learning.
- Abstract(参考訳): 進化的アルゴリズム(EA)と強化学習(RL)を統合した進化的強化学習(ERL)は,優れた性能向上を示す。
両アプローチの強みを融合させることで、ERLは有望な研究方向として現れている。
本調査では,ERLの多様な研究分野について概観する。
具体的には、関連アルゴリズムの最近の進歩を体系的に要約し、RLのEA支援最適化、EAのRL支援最適化、EAとRLの相乗的最適化の3つの研究方向を特定する。
その後、各研究の方向性を詳細に分析し、複数の研究部門を編成する。
それぞれのブランチが取り組もうとしている問題と、EAとRLの統合がこれらの課題にどのように対処するかを明らかにする。
結論として,様々な研究方向の潜在的な課題と今後の研究方向性について論じる。
研究者によるERLの探究を容易にするため, https://github.com/yeshenpy/Awesome-Evolutionary-Reinforcement-Learningに関するアルゴリズムとコードを整理した。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Evolutionary Reinforcement Learning: A Systematic Review and Future
Directions [18.631418642768132]
進化強化学習(EvoRL)は、複雑な問題解決における強化学習と進化アルゴリズム(EA)の限界に対する解決策である。
EvoRLはEAと強化学習を統合し、知的エージェントを訓練するための有望な道を提供する。
この体系的なレビューは、EvoRLの現状に関する洞察を提供し、人工知能の進化を続ける風景において、その能力を向上させるためのガイドを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:07:57Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Discovering General Reinforcement Learning Algorithms with Adversarial
Environment Design [54.39859618450935]
メタ学習型更新ルールは,広範囲のRLタスクで良好に機能するアルゴリズムの発見を期待して,実現可能であることを示す。
Learned Policy Gradient (LPG)のようなアルゴリズムによる印象的な初期結果にもかかわらず、これらのアルゴリズムが目に見えない環境に適用される場合、まだギャップが残っている。
本研究では,メタ教師付き学習分布の特性が,これらのアルゴリズムの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2023-10-04T12:52:56Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - A Survey on Deep Reinforcement Learning-based Approaches for Adaptation
and Generalization [3.307203784120634]
Deep Reinforcement Learning (DRL)は、現実世界の環境で複雑な問題を効率的に解ける知的なエージェントを作ることを目的としている。
本稿では,DRLに基づく適応と一般化に向けた最近の研究動向について述べる。
論文 参考訳(メタデータ) (2022-02-17T04:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。