論文の概要: AutoEG: Automated Experience Grafting for Off-Policy Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2004.10698v2
- Date: Thu, 23 Apr 2020 14:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:22:03.364617
- Title: AutoEG: Automated Experience Grafting for Off-Policy Deep Reinforcement
Learning
- Title(参考訳): AutoEG: オフポリティ深い強化学習のための自動経験グラフト
- Authors: Keting Lu, Shiqi Zhang, Xiaoping Chen
- Abstract要約: 本研究では,RLエージェントが経験プールから数少ない高品質な軌道のセグメントを再編成することを可能にするアルゴリズムであるExperience Grafting (EG) を開発した。
さらに,移植に基づく学習戦略の調整を自動学習するAutoEGエージェントを開発した。
6つのロボット制御環境から収集した結果は、標準的なディープRLアルゴリズム(DDPG)と比較して、AutoEGが学習プロセスの速度を少なくとも30%向上することを示している。
- 参考スコア(独自算出の注目度): 11.159797940803593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (RL) algorithms frequently require prohibitive
interaction experience to ensure the quality of learned policies. The
limitation is partly because the agent cannot learn much from the many
low-quality trials in early learning phase, which results in low learning rate.
Focusing on addressing this limitation, this paper makes a twofold
contribution. First, we develop an algorithm, called Experience Grafting (EG),
to enable RL agents to reorganize segments of the few high-quality trajectories
from the experience pool to generate many synthetic trajectories while
retaining the quality. Second, building on EG, we further develop an AutoEG
agent that automatically learns to adjust the grafting-based learning strategy.
Results collected from a set of six robotic control environments show that, in
comparison to a standard deep RL algorithm (DDPG), AutoEG increases the speed
of learning process by at least 30%.
- Abstract(参考訳): 深層強化学習(RL)アルゴリズムは、学習ポリシーの品質を保証するために、しばしば禁止的な相互作用経験を必要とする。
この制限は、初期の学習段階において、エージェントが多くの低品質の試行から多くを学べないため、学習率が低いことによる。
この制限に対処することに焦点を当てて、本論文は2つの貢献をする。
まず、経験的グラフティング(EG)と呼ばれるアルゴリズムを開発し、RLエージェントが経験的プールから数少ない高品質な軌道のセグメントを再編成し、品質を維持しながら多くの合成軌道を生成する。
第2に,移植に基づく学習戦略の調整を自動学習するAutoEGエージェントを,EG上に構築する。
6つのロボット制御環境から収集した結果は、標準的なディープRLアルゴリズム(DDPG)と比較して、AutoEGが学習プロセスの速度を少なくとも30%向上することを示している。
関連論文リスト
- ExACT: Teaching AI Agents to Explore with Reflective-MCTS and Exploratory Learning [78.42927884000673]
ExACTは、エージェントアプリケーションのためのo1のようなモデルを構築するために、テスト時間検索と自己学習を組み合わせるアプローチである。
リフレクティブモンテカルロ木探索(Reflective Monte Carlo Tree Search, R-MCTS)は、AIエージェントがその場で意思決定空間を探索する能力を高めるために設計された新しいテストタイムアルゴリズムである。
次に,探索学習(Exploratory Learning)という,外部探索アルゴリズムに頼らずに,エージェントに推論時間での探索を教える新しい学習戦略を紹介する。
論文 参考訳(メタデータ) (2024-10-02T21:42:35Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - REIN-2: Giving Birth to Prepared Reinforcement Learning Agents Using
Reinforcement Learning Agents [0.0]
本稿では,課題学習の目的を課題(あるいは課題の集合)の目的にシフトさせるメタラーニング手法を提案する。
我々のモデルであるREIN-2は、RLフレームワーク内で構成されたメタ学習スキームであり、その目的は、他のRLエージェントの作り方を学ぶメタRLエージェントを開発することである。
従来の最先端のDeep RLアルゴリズムと比較して、実験結果は、人気のあるOpenAI Gym環境において、我々のモデルの顕著な性能を示している。
論文 参考訳(メタデータ) (2021-10-11T10:13:49Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - Hierarchical Program-Triggered Reinforcement Learning Agents For
Automated Driving [5.404179497338455]
Reinforcement Learning(RL)とDeep Learning(DL)の最近の進歩は、自動運転を含む複雑なタスクで印象的なパフォーマンスを示しています。
本稿では,構造化プログラムと複数のrlエージェントからなる階層構造を用いて,比較的単純なタスクを実行するように訓練した階層型プログラムトリガー型強化学習法を提案する。
検証の焦点はRLエージェントからの単純な保証の下でマスタープログラムにシフトし、複雑なRLエージェントよりも解釈可能で検証可能な実装となる。
論文 参考訳(メタデータ) (2021-03-25T14:19:54Z) - Knowledge Transfer in Multi-Task Deep Reinforcement Learning for
Continuous Control [65.00425082663146]
連続制御のための知識伝達に基づく多タスク深層強化学習フレームワーク(KTM-DRL)を提案する。
KTM-DRLでは、マルチタスクエージェントがまずオフラインの知識伝達アルゴリズムを利用して、タスク固有の教師の経験から制御ポリシーを素早く学習する。
実験結果は,KTM-DRLとその知識伝達とオンライン学習アルゴリズムの有効性を正当化するとともに,最先端技術よりも大きなマージンによる優位性を示した。
論文 参考訳(メタデータ) (2020-10-15T03:26:47Z) - Self-Paced Deep Reinforcement Learning [42.467323141301826]
カリキュラム強化学習(CRL)は、学習を通して調整された一連のタスクに公開することにより、エージェントの学習速度と安定性を向上させる。
実証的な成功にもかかわらず、CRLのオープンな疑問は、手動設計を避けながら、与えられた強化学習(RL)エージェントのカリキュラムを自動的に生成する方法である。
本稿では,カリキュラム生成を推論問題として解釈し,タスク上の分布を段階的に学習し,対象タスクにアプローチすることで解答を提案する。
このアプローチは、エージェントがペースを制御し、しっかりとした理論的動機を持ち、深いRLアルゴリズムと容易に統合できる自動カリキュラム生成につながる。
論文 参考訳(メタデータ) (2020-04-24T15:48:07Z) - Guiding Robot Exploration in Reinforcement Learning via Automated
Planning [6.075903612065429]
強化学習(Reinforcement Learning, RL)は、エージェントが試行錯誤経験から長期的な目標を達成するための学習を可能にする。
自動計画は、行動知識を使用してタスクを達成するための計画を計算することを目的としている。
我々は、RLエージェントが行動知識で推論できるようにガイドダイナQ(GDQ)を開発した。
論文 参考訳(メタデータ) (2020-04-23T21:03:30Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。