論文の概要: Reset-Free Reinforcement Learning via Multi-Task Learning: Learning
Dexterous Manipulation Behaviors without Human Intervention
- arxiv url: http://arxiv.org/abs/2104.11203v1
- Date: Thu, 22 Apr 2021 17:38:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:41:32.579490
- Title: Reset-Free Reinforcement Learning via Multi-Task Learning: Learning
Dexterous Manipulation Behaviors without Human Intervention
- Title(参考訳): マルチタスク学習によるリセットレス強化学習:人間の介入を伴わないデクサラスマニピュレーション行動の学習
- Authors: Abhishek Gupta, Justin Yu, Tony Z. Zhao, Vikash Kumar, Aaron Rovinsky,
Kelvin Xu, Thomas Devlin, Sergey Levine
- Abstract要約: マルチタスク学習は、リセットフリーの学習スキームをはるかに複雑な問題に効果的にスケールできることを示す。
この研究は、人間の介入なしにRLを用いて現実世界での巧妙な操作行動を学ぶ能力を示す。
- 参考スコア(独自算出の注目度): 67.1936055742498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) algorithms can in principle acquire complex
robotic skills by learning from large amounts of data in the real world,
collected via trial and error. However, most RL algorithms use a carefully
engineered setup in order to collect data, requiring human supervision and
intervention to provide episodic resets. This is particularly evident in
challenging robotics problems, such as dexterous manipulation. To make data
collection scalable, such applications require reset-free algorithms that are
able to learn autonomously, without explicit instrumentation or human
intervention. Most prior work in this area handles single-task learning.
However, we might also want robots that can perform large repertoires of
skills. At first, this would appear to only make the problem harder. However,
the key observation we make in this work is that an appropriately chosen
multi-task RL setting actually alleviates the reset-free learning challenge,
with minimal additional machinery required. In effect, solving a multi-task
problem can directly solve the reset-free problem since different combinations
of tasks can serve to perform resets for other tasks. By learning multiple
tasks together and appropriately sequencing them, we can effectively learn all
of the tasks together reset-free. This type of multi-task learning can
effectively scale reset-free learning schemes to much more complex problems, as
we demonstrate in our experiments. We propose a simple scheme for multi-task
learning that tackles the reset-free learning problem, and show its
effectiveness at learning to solve complex dexterous manipulation tasks in both
hardware and simulation without any explicit resets. This work shows the
ability to learn dexterous manipulation behaviors in the real world with RL
without any human intervention.
- Abstract(参考訳): 強化学習(RL)アルゴリズムは、原則として、試行錯誤によって収集された実世界の大量のデータから学習することで、複雑なロボットスキルを習得することができる。
しかしながら、ほとんどのRLアルゴリズムは、データを収集するために慎重に設計されたセットアップを使用しており、エピソディックなリセットを提供するには人間の監督と介入が必要である。
これは特に、デクスタース操作のようなロボット工学の問題において顕著である。
データ収集をスケーラブルにするためには、明示的な計測や人間の介入なしに自律的に学習できるリセットフリーなアルゴリズムが必要である。
この領域での以前の作業のほとんどは、シングルタスクの学習を扱う。
しかし、私たちはまた、大きなレパートリーのスキルを発揮できるロボットを欲しがるかもしれない。
最初は、この問題を難しくするだけのように思える。
しかし、この研究で重要なことは、適切に選択されたマルチタスクRL設定が、必要最小限の機械で、実際にリセットなし学習の課題を軽減することである。
結果として、マルチタスク問題を解決することは、タスクの異なる組み合わせが他のタスクのリセットを実行するのに役立つため、リセットフリーな問題を解決することができる。
複数のタスクを一緒に学習し、それらを適切にシーケンスすることで、すべてのタスクをリセットフリーで効果的に学習できます。
このようなマルチタスク学習は,より複雑な問題に対して,リセットフリーな学習スキームを効果的にスケールすることができる。
本稿では,リセット不要な学習問題に対処するマルチタスク学習の簡単なスキームを提案し,ハードウェアとシミュレーションの両方において,明示的なリセットを伴わずに複雑な操作タスクを解く学習の有効性を示す。
この研究は、人間の介入なしにRLを用いて現実世界での巧妙な操作行動を学ぶ能力を示す。
関連論文リスト
- REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - Hindsight States: Blending Sim and Real Task Elements for Efficient
Reinforcement Learning [61.3506230781327]
ロボット工学では、第一原理から導かれた力学モデルに基づくシミュレーションに基づいて、トレーニングデータを生成する方法がある。
ここでは、力学の複雑さの不均衡を利用して、より標本効率のよい学習を行う。
提案手法をいくつかの課題に対して検証し,既存の近視アルゴリズムと組み合わせた場合の学習改善を実証する。
論文 参考訳(メタデータ) (2023-03-03T21:55:04Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Continual Learning of Control Primitives: Skill Discovery via
Reset-Games [128.36174682118488]
エージェントが最小限の監督力でスキルを習得できる方法を示す。
私たちは、エージェントを学習タスクの初期状態の広いセットに"リセット"する必要があるという洞察を利用して、多様な"リセットスキル"を学ぶための自然な設定を提供します。
論文 参考訳(メタデータ) (2020-11-10T18:07:44Z) - Curriculum Learning with Hindsight Experience Replay for Sequential
Object Manipulation Tasks [1.370633147306388]
本稿では,カリキュラム学習とHER(Hindsight Experience Replay)を組み合わせて,逐次的なオブジェクト操作タスクを学習するアルゴリズムを提案する。
このアルゴリズムは、多くのオブジェクト操作タスクに固有のリカレント構造を利用し、元のシミュレーションで学習プロセス全体を各ソースタスクに調整することなく実装する。
論文 参考訳(メタデータ) (2020-08-21T08:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。