論文の概要: Evolutionary Reinforcement Learning: A Systematic Review and Future
Directions
- arxiv url: http://arxiv.org/abs/2402.13296v1
- Date: Tue, 20 Feb 2024 02:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 18:22:33.238618
- Title: Evolutionary Reinforcement Learning: A Systematic Review and Future
Directions
- Title(参考訳): 進化的強化学習 : 体系的レビューと今後の方向性
- Authors: Yuanguo Lin, Fan Lin, Guorong Cai, Hong Chen, Lixin Zou and Pengcheng
Wu
- Abstract要約: 進化強化学習(EvoRL)は、複雑な問題解決における強化学習と進化アルゴリズム(EA)の限界に対する解決策である。
EvoRLはEAと強化学習を統合し、知的エージェントを訓練するための有望な道を提供する。
この体系的なレビューは、EvoRLの現状に関する洞察を提供し、人工知能の進化を続ける風景において、その能力を向上させるためのガイドを提供する。
- 参考スコア(独自算出の注目度): 18.631418642768132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to the limitations of reinforcement learning and evolutionary
algorithms (EAs) in complex problem-solving, Evolutionary Reinforcement
Learning (EvoRL) has emerged as a synergistic solution. EvoRL integrates EAs
and reinforcement learning, presenting a promising avenue for training
intelligent agents. This systematic review firstly navigates through the
technological background of EvoRL, examining the symbiotic relationship between
EAs and reinforcement learning algorithms. We then delve into the challenges
faced by both EAs and reinforcement learning, exploring their interplay and
impact on the efficacy of EvoRL. Furthermore, the review underscores the need
for addressing open issues related to scalability, adaptability, sample
efficiency, adversarial robustness, ethic and fairness within the current
landscape of EvoRL. Finally, we propose future directions for EvoRL,
emphasizing research avenues that strive to enhance self-adaptation and
self-improvement, generalization, interpretability, explainability, and so on.
Serving as a comprehensive resource for researchers and practitioners, this
systematic review provides insights into the current state of EvoRL and offers
a guide for advancing its capabilities in the ever-evolving landscape of
artificial intelligence.
- Abstract(参考訳): 複雑な問題解決における強化学習と進化的アルゴリズム(EA)の限界に応えて、進化的強化学習(EvoRL)が相乗的ソリューションとして登場した。
EvoRLはEAと強化学習を統合し、知的エージェントを訓練するための有望な道を提供する。
この体系的なレビューは、まずEvoRLの技術的背景をナビゲートし、EAと強化学習アルゴリズムの共生関係を調べる。
次に、EAと強化学習の両方が直面する課題を掘り下げ、それらの相互作用とEvoRLの有効性への影響を探求する。
さらに、このレビューは、拡張性、適応性、サンプル効率、敵の堅牢性、倫理的および公正性に関連するオープンな問題に対処する必要性を強調している。
最後に, 自己適応, 自己改善, 一般化, 解釈可能性, 説明可能性などを向上させる研究手法を強調し, 今後のEvoRLの方向性を提案する。
研究者や実践者のための包括的なリソースとして、この体系的なレビューは、evorlの現状に関する洞察を提供し、進化を続ける人工知能の展望において、その能力を向上させるためのガイドを提供する。
関連論文リスト
- O1 Replication Journey: A Strategic Progress Report -- Part 1 [52.062216849476776]
本稿では,O1 Replication Journeyに具体化された人工知能研究の先駆的アプローチを紹介する。
我々の方法論は、長期化したチームベースのプロジェクトの不規則性を含む、現代のAI研究における重要な課題に対処する。
本稿では,モデルにショートカットだけでなく,完全な探索プロセスの学習を促す旅行学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-08T15:13:01Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - Bringing Generative AI to Adaptive Learning in Education [58.690250000579496]
我々は、生成AIと適応学習の交差研究に光を当てた。
我々は、この連合が教育における次の段階の学習形式の発展に大きく貢献するだろうと論じている。
論文 参考訳(メタデータ) (2024-02-02T23:54:51Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - When large language models meet evolutionary algorithms [48.213640761641926]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキスト生成と進化の共通する集合性と方向性に動機づけられた本論文では,LLMとEAの並列性について述べる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - EVO-RL: Evolutionary-Driven Reinforcement Learning [11.93391780461501]
進化的計算によって駆動される強化学習のための新しい手法を提案する。
進化駆動強化学習(evo-RL)と呼ばれる我々のアルゴリズムは、強化学習アルゴリズムを進化サイクルに組み込む。
その結果,evo-RLアプローチに埋め込まれた強化学習アルゴリズムは,OpenAI Gym上で同じRLアルゴリズムのスタンドアロンバージョンよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-07-09T11:52:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。