論文の概要: Ensemble Reinforcement Learning: A Survey
- arxiv url: http://arxiv.org/abs/2303.02618v1
- Date: Sun, 5 Mar 2023 09:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:32:14.256086
- Title: Ensemble Reinforcement Learning: A Survey
- Title(参考訳): アンサンブル強化学習:調査
- Authors: Yanjie Song, P. N. Suganthan, Witold Pedrycz, Junwei Ou, Yongming He,
Yingwu Chen
- Abstract要約: 強化学習(Reinforcement Learning, RL)は多くの科学的および応用的な問題において最先端のパフォーマンスを達成した。
エンサンブル強化学習(ERL)は,複雑なタスクを扱う上で重要な手法となっている。
ERLはいくつかのモデルやトレーニングアルゴリズムを組み合わせて問題空間を完全に探索し、強力な一般化特性を持つ。
- 参考スコア(独自算出の注目度): 61.04401522391629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has achieved state-of-the-art performance in many
scientific and applied problems. However, some complex tasks still are
difficult to handle using a single model and algorithm. The highly popular
ensemble reinforcement learning (ERL) has become an important method to handle
complex tasks with the advantage of combining reinforcement learning and
ensemble learning (EL). ERL combines several models or training algorithms to
fully explore the problem space and has strong generalization characteristics.
This study presents a comprehensive survey on ERL to provide the readers with
an overview of the recent advances and challenges. The background is introduced
first. The strategies successfully applied in ERL are analyzed in detail.
Finally, we outline some open questions and conclude by discussing some future
research directions of ERL. This survey contributes to ERL development by
providing a guide for future scientific research and engineering applications.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は多くの科学的および応用問題において最先端のパフォーマンスを達成した。
しかし、いくつかの複雑なタスクは、単一のモデルとアルゴリズムを使うのが難しい。
エンサンブル強化学習(ERL)は,強化学習とアンサンブル学習(EL)を組み合わせることで,複雑なタスクを処理するための重要な手法となっている。
ERLはいくつかのモデルやトレーニングアルゴリズムを組み合わせて問題空間を完全に探索し、強力な一般化特性を持つ。
本研究は,最近の進歩と課題の概要を読者に提供するためのERLに関する総合的な調査である。
背景はまず紹介される。
ERLでうまく適用された戦略を詳細に分析する。
最後に,いくつかのオープンな質問を概説し,今後のERL研究の方向性について論じる。
この調査は、今後の科学研究および工学応用のためのガイドを提供することで、ERLの開発に貢献する。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Survey on Large Language Model-Enhanced Reinforcement Learning: Concept, Taxonomy, and Methods [18.771658054884693]
大規模言語モデル(LLM)は、マルチタスク学習、サンプル効率、高レベルのタスク計画といった側面において強化学習(RL)を強化するための有望な道として出現する。
本稿では,情報処理装置,報酬設計装置,意思決定装置,ジェネレータの4つの役割を含む,RLにおけるLLMの機能を体系的に分類する構造的分類法を提案する。
論文 参考訳(メタデータ) (2024-03-30T08:28:08Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Pretraining in Deep Reinforcement Learning: A Survey [17.38360092869849]
事前訓練は伝達可能な知識の獲得に有効であることが示されている。
強化学習の性質から, この分野でのプレトレーニングには, 独特な課題が伴う。
論文 参考訳(メタデータ) (2022-11-08T02:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。