論文の概要: A Survey of Exploration Methods in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.00157v1
- Date: Wed, 1 Sep 2021 02:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:30:27.044067
- Title: A Survey of Exploration Methods in Reinforcement Learning
- Title(参考訳): 強化学習における探索手法の検討
- Authors: Susan Amin, Maziar Gomrokchi, Harsh Satija, Herke van Hoof, Doina
Precup
- Abstract要約: 強化学習エージェントは、学習プロセスのための情報データを得るために、探索に極めて依存する。
本稿では,(逐次的)強化学習における近代的な探究手法の調査と,探索手法の分類について述べる。
- 参考スコア(独自算出の注目度): 64.01676570654234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exploration is an essential component of reinforcement learning algorithms,
where agents need to learn how to predict and control unknown and often
stochastic environments. Reinforcement learning agents depend crucially on
exploration to obtain informative data for the learning process as the lack of
enough information could hinder effective learning. In this article, we provide
a survey of modern exploration methods in (Sequential) reinforcement learning,
as well as a taxonomy of exploration methods.
- Abstract(参考訳): 探索は強化学習アルゴリズムの重要な要素であり、エージェントは未知の、しばしば確率的な環境を予測し、制御する方法を学ぶ必要がある。
強化学習エージェントは、十分な情報がないことが効果的な学習を妨げる可能性があるため、学習プロセスのための情報を得るための探索に大きく依存する。
本稿では,(逐次的)強化学習における近代的な探究手法の調査と,探索手法の分類について述べる。
関連論文リスト
- On the Importance of Exploration for Generalization in Reinforcement
Learning [89.63074327328765]
本研究では,不確実性の高い状態の探索を支援する方法であるEDE: Exploration via Distributional Ensembleを提案する。
当社のアルゴリズムは,ProcgenとCrafterの両面で最先端を実現するための,最初のバリューベースアプローチである。
論文 参考訳(メタデータ) (2023-06-08T18:07:02Z) - General Intelligence Requires Rethinking Exploration [24.980249597326985]
我々は,教師付き学習を含むすべての学習システムにおいて,探索が不可欠であると主張している。
汎用的な探索は、オープンエンドの学習プロセスを維持するために必要な目的である。
論文 参考訳(メタデータ) (2022-11-15T00:46:15Z) - The Role of Exploration for Task Transfer in Reinforcement Learning [8.817381809671804]
移行学習の文脈で、探索-探索-探索トレードオフを再検討する。
本研究は、強化学習探索手法をレビューし、それらを組織化する分類を定義し、これらの手法の違いをタスク転送の文脈で分析し、今後の研究への道筋を提案する。
論文 参考訳(メタデータ) (2022-10-11T01:23:21Z) - Planning with RL and episodic-memory behavioral priors [0.20305676256390934]
行動の事前から学ぶことは、エージェントをランダムな探索ポリシーでブートストラップする方法として有望だ。
強化学習環境における効果的な探索と学習にこれらの行動先行を活用できる計画に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-07-05T07:11:05Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - Lifelong Learning from Event-based Data [22.65311698505554]
イベントカメラが生成したデータから学習する方法を検討する。
特徴抽出と連続学習の両方からなるモデルを提案する。
論文 参考訳(メタデータ) (2021-11-11T17:59:41Z) - Augmenting Policy Learning with Routines Discovered from a Demonstration [86.9307760606403]
日常的な政策学習(RAPL)を提案する。
RAPLは1つのデモから原始的なアクションからなるルーチンを発見する。
RAPLが最先端の模倣学習方法SQILと強化学習方法A2Cを改善することを示した。
論文 参考訳(メタデータ) (2020-12-23T03:15:21Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z) - Transfer Learning in Deep Reinforcement Learning: A Survey [64.36174156782333]
強化学習は、シーケンシャルな意思決定問題を解決するための学習パラダイムである。
近年、ディープニューラルネットワークの急速な発展により、強化学習の顕著な進歩が見られた。
転校学習は 強化学習が直面する様々な課題に 対処するために生まれました
論文 参考訳(メタデータ) (2020-09-16T18:38:54Z) - A new Potential-Based Reward Shaping for Reinforcement Learning Agent [0.0]
提案手法はエピソードの累積報酬から知識を抽出する。
その結果,シングルタスクとマルチタスク強化学習エージェントの学習プロセスの改善が示唆された。
論文 参考訳(メタデータ) (2019-02-17T10:34:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。