論文の概要: Ensemble Reinforcement Learning: A Survey
- arxiv url: http://arxiv.org/abs/2303.02618v1
- Date: Sun, 5 Mar 2023 09:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:32:14.256086
- Title: Ensemble Reinforcement Learning: A Survey
- Title(参考訳): アンサンブル強化学習:調査
- Authors: Yanjie Song, P. N. Suganthan, Witold Pedrycz, Junwei Ou, Yongming He,
Yingwu Chen
- Abstract要約: 強化学習(Reinforcement Learning, RL)は多くの科学的および応用的な問題において最先端のパフォーマンスを達成した。
エンサンブル強化学習(ERL)は,複雑なタスクを扱う上で重要な手法となっている。
ERLはいくつかのモデルやトレーニングアルゴリズムを組み合わせて問題空間を完全に探索し、強力な一般化特性を持つ。
- 参考スコア(独自算出の注目度): 61.04401522391629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has achieved state-of-the-art performance in many
scientific and applied problems. However, some complex tasks still are
difficult to handle using a single model and algorithm. The highly popular
ensemble reinforcement learning (ERL) has become an important method to handle
complex tasks with the advantage of combining reinforcement learning and
ensemble learning (EL). ERL combines several models or training algorithms to
fully explore the problem space and has strong generalization characteristics.
This study presents a comprehensive survey on ERL to provide the readers with
an overview of the recent advances and challenges. The background is introduced
first. The strategies successfully applied in ERL are analyzed in detail.
Finally, we outline some open questions and conclude by discussing some future
research directions of ERL. This survey contributes to ERL development by
providing a guide for future scientific research and engineering applications.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は多くの科学的および応用問題において最先端のパフォーマンスを達成した。
しかし、いくつかの複雑なタスクは、単一のモデルとアルゴリズムを使うのが難しい。
エンサンブル強化学習(ERL)は,強化学習とアンサンブル学習(EL)を組み合わせることで,複雑なタスクを処理するための重要な手法となっている。
ERLはいくつかのモデルやトレーニングアルゴリズムを組み合わせて問題空間を完全に探索し、強力な一般化特性を持つ。
本研究は,最近の進歩と課題の概要を読者に提供するためのERLに関する総合的な調査である。
背景はまず紹介される。
ERLでうまく適用された戦略を詳細に分析する。
最後に,いくつかのオープンな質問を概説し,今後のERL研究の方向性について論じる。
この調査は、今後の科学研究および工学応用のためのガイドを提供することで、ERLの開発に貢献する。
関連論文リスト
- Bridging Evolutionary Algorithms and Reinforcement Learning: A
Comprehensive Survey [53.94873257861402]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Evolutionary Reinforcement Learning: A Survey [31.112066295496003]
強化学習(Reinforcement Learning、RL)は、エージェントが環境とのインタラクションを通じて累積報酬を最大化するように訓練する機械学習アプローチである。
本稿では、進化強化学習(EvoRL)と呼ばれる、ECをRLに統合するための最先端手法に関する総合的な調査を紹介する。
論文 参考訳(メタデータ) (2023-03-07T01:38:42Z) - Revolutionizing Genomics with Reinforcement Learning Techniques [0.9087641068861047]
強化学習(Reinforcement Learning, RL)は、幅広い問題を解決する強力なツールとして登場した。
RLアルゴリズムは、最小限の人間の監督で経験から学ぶことができる。
RLを使用する大きなメリットの1つは、ラベル付きトレーニングデータ収集に伴うコスト削減である。
論文 参考訳(メタデータ) (2023-02-26T08:43:08Z) - A Survey of Meta-Reinforcement Learning [83.95180398234238]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Pretraining in Deep Reinforcement Learning: A Survey [17.38360092869849]
事前訓練は伝達可能な知識の獲得に有効であることが示されている。
強化学習の性質から, この分野でのプレトレーニングには, 独特な課題が伴う。
論文 参考訳(メタデータ) (2022-11-08T02:17:54Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。