論文の概要: Deep Reinforcement Learning Versus Evolution Strategies: A Comparative
Survey
- arxiv url: http://arxiv.org/abs/2110.01411v1
- Date: Tue, 28 Sep 2021 18:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-10 10:23:14.377280
- Title: Deep Reinforcement Learning Versus Evolution Strategies: A Comparative
Survey
- Title(参考訳): 深層強化学習Versus進化戦略:比較調査
- Authors: Amjad Yousef Majid, Serge Saaybi, Tomas van Rietbergen, Vincent
Francois-Lavet, R Venkatesha Prasad, Chris Verhoeven
- Abstract要約: 深層強化学習(DRL)と進化戦略(ESs)は多くのシーケンシャルな意思決定問題において人間レベルの制御を上回っている。
DRLとESの長所と短所に関する洞察を得るために、それぞれの能力と限界について分析する。
- 参考スコア(独自算出の注目度): 2.554326189662943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reinforcement Learning (DRL) and Evolution Strategies (ESs) have
surpassed human-level control in many sequential decision-making problems, yet
many open challenges still exist. To get insights into the strengths and
weaknesses of DRL versus ESs, an analysis of their respective capabilities and
limitations is provided. After presenting their fundamental concepts and
algorithms, a comparison is provided on key aspects such as scalability,
exploration, adaptation to dynamic environments, and multi-agent learning.
Then, the benefits of hybrid algorithms that combine concepts from DRL and ESs
are highlighted. Finally, to have an indication about how they compare in
real-world applications, a survey of the literature for the set of applications
they support is provided.
- Abstract(参考訳): 深層強化学習(DRL)と進化戦略(ESs)は多くのシーケンシャルな意思決定問題において人間レベルの制御を超えたが、多くのオープンな課題が存在する。
drl対essの強みと弱みについて洞察を得るために、それぞれの能力と限界の分析が提供されている。
基本的な概念とアルゴリズムを提示した後、スケーラビリティ、探索、動的環境への適応、マルチエージェント学習といった重要な側面で比較が行われる。
次に、DRLとESの概念を組み合わせたハイブリッドアルゴリズムの利点を強調した。
最後に、それらが現実世界のアプリケーションでどのように比較されているかを示すため、サポート対象のアプリケーション群に関する文献調査を行っている。
関連論文リスト
- A Survey on Explainable Deep Reinforcement Learning [18.869827229746697]
Deep Reinforcement Learning (DRL)は、さまざまな領域にわたるシーケンシャルな意思決定タスクにおいて、顕著な成功を収めた。
ブラックボックスのニューラルアーキテクチャに依存しているため、高信頼のアプリケーションにおける解釈可能性、信頼性、デプロイメントが妨げられる。
説明可能なDeep Reinforcement Learning(XRL)は、機能レベル、状態レベル、データセットレベル、モデルレベルの説明技術を通じて透明性を高めることで、これらの課題に対処する。
論文 参考訳(メタデータ) (2025-02-08T05:30:31Z) - A Comprehensive Survey of Reinforcement Learning: From Algorithms to Practical Challenges [2.2448567386846916]
強化学習(RL)は人工知能(AI)の強力なパラダイムとして登場した。
本稿では,多種多様なアルゴリズムを巧みに分析するRLの包括的調査を行う。
我々は、RLアルゴリズムの選択と実装に関する実践的な洞察を提供し、収束、安定性、探索-探索ジレンマといった共通の課題に対処する。
論文 参考訳(メタデータ) (2024-11-28T03:53:14Z) - A Comprehensive Survey on Underwater Image Enhancement Based on Deep Learning [51.7818820745221]
水中画像強調(UIE)はコンピュータビジョン研究において重要な課題である。
多数のUIEアルゴリズムが開発されているにもかかわらず、網羅的で体系的なレビューはいまだに欠落している。
論文 参考訳(メタデータ) (2024-05-30T04:46:40Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - A Survey on Offline Reinforcement Learning: Taxonomy, Review, and Open
Problems [0.0]
強化学習(RL)は、急速に人気が高まっている。
高いコストと環境との相互作用の危険性のため、RLにはアクセスできない領域がまだ広い範囲にある。
オフラインRLは、以前に収集されたインタラクションの静的データセットからのみ学習するパラダイムである。
論文 参考訳(メタデータ) (2022-03-02T20:05:11Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z) - What Matters In On-Policy Reinforcement Learning? A Large-Scale
Empirical Study [50.79125250286453]
オンライン強化学習(RL)は、様々な連続制御タスクにうまく適用されている。
しかし、最先端の実装は、結果のエージェントのパフォーマンスに強く影響を与える、多数の低レベルかつ高レベルの設計決定を下します。
これらの選択は通常、文献で広く議論されることはなく、アルゴリズムの公開記述とそれらの実装の間に相違が生じている。
我々は,「50以上の選択肢」を統一型オンラインRLフレームワークに実装し,大規模な実証研究におけるその影響を調査する。
論文 参考訳(メタデータ) (2020-06-10T17:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。