論文の概要: A Survey on Deep Reinforcement Learning-based Approaches for Adaptation
and Generalization
- arxiv url: http://arxiv.org/abs/2202.08444v1
- Date: Thu, 17 Feb 2022 04:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-19 01:48:45.949201
- Title: A Survey on Deep Reinforcement Learning-based Approaches for Adaptation
and Generalization
- Title(参考訳): 深層強化学習に基づく適応と一般化に関する研究
- Authors: Pamul Yadav, Ashutosh Mishra, Junyong Lee, Shiho Kim
- Abstract要約: Deep Reinforcement Learning (DRL)は、現実世界の環境で複雑な問題を効率的に解ける知的なエージェントを作ることを目的としている。
本稿では,DRLに基づく適応と一般化に向けた最近の研究動向について述べる。
- 参考スコア(独自算出の注目度): 3.307203784120634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reinforcement Learning (DRL) aims to create intelligent agents that can
learn to solve complex problems efficiently in a real-world environment.
Typically, two learning goals: adaptation and generalization are used for
baselining DRL algorithm's performance on different tasks and domains. This
paper presents a survey on the recent developments in DRL-based approaches for
adaptation and generalization. We begin by formulating these goals in the
context of task and domain. Then we review the recent works under those
approaches and discuss future research directions through which DRL algorithms'
adaptability and generalizability can be enhanced and potentially make them
applicable to a broad range of real-world problems.
- Abstract(参考訳): Deep Reinforcement Learning (DRL)は、現実世界の環境で複雑な問題を効率的に解けるインテリジェントエージェントを作ることを目的としている。
通常、適応と一般化という2つの学習目標が、DRLアルゴリズムの性能を異なるタスクや領域で基礎付けるために使われる。
本稿では,DRLに基づく適応と一般化に向けた最近の研究動向について述べる。
まず、これらの目標をタスクとドメインのコンテキストで定式化する。
次に,これらの手法による最近の研究成果を概観し,DRLアルゴリズムの適応性と一般化性を向上し,現実世界の幅広い問題に適用できる可能性について論じる。
関連論文リスト
- Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Bridging Evolutionary Algorithms and Reinforcement Learning: A Comprehensive Survey on Hybrid Algorithms [50.91348344666895]
進化的強化学習(ERL)は進化的アルゴリズム(EA)と強化学習(RL)を統合して最適化する。
本調査では,ERLの多様な研究分野について概観する。
論文 参考訳(メタデータ) (2024-01-22T14:06:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - A Survey of Meta-Reinforcement Learning [83.95180398234238]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - A Survey of Generalisation in Deep Reinforcement Learning [18.098133342169646]
深層強化学習の一般化は、展開時に目に見えない新しい状況に一般化するRLアルゴリズムを作ることを目的としている。
実世界のシナリオで強化学習アルゴリズムを展開するためには、これに取り組むことが不可欠です。
この調査は、この初期段階の分野の概要である。
論文 参考訳(メタデータ) (2021-11-18T16:53:02Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。