論文の概要: Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2207.04703v1
- Date: Mon, 11 Jul 2022 08:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 16:29:43.937510
- Title: Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning
- Title(参考訳): スクラッチから始めるな - 事前データを活用してロボット強化学習を自動化する
- Authors: Homer Walke, Jonathan Yang, Albert Yu, Aviral Kumar, Jedrzej Orbik,
Avi Singh, Sergey Levine
- Abstract要約: 強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
- 参考スコア(独自算出の注目度): 70.70104870417784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) algorithms hold the promise of enabling
autonomous skill acquisition for robotic systems. However, in practice,
real-world robotic RL typically requires time consuming data collection and
frequent human intervention to reset the environment. Moreover, robotic
policies learned with RL often fail when deployed beyond the carefully
controlled setting in which they were learned. In this work, we study how these
challenges can all be tackled by effective utilization of diverse offline
datasets collected from previously seen tasks. When faced with a new task, our
system adapts previously learned skills to quickly learn to both perform the
new task and return the environment to an initial state, effectively performing
its own environment reset. Our empirical results demonstrate that incorporating
prior data into robotic reinforcement learning enables autonomous learning,
substantially improves sample-efficiency of learning, and enables better
generalization.
- Abstract(参考訳): 強化学習(rl)アルゴリズムは、ロボットシステムの自律的スキル獲得を可能にすることを約束している。
しかし、現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
さらに、RLで学んだロボットポリシーは、学習対象の慎重に制御された設定を超えてデプロイされると失敗することが多い。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
新しいタスクに直面すると、学習済みのスキルに適応して、新しいタスクを実行し、環境を初期状態に戻すことで、自分たちの環境リセットを効果的に行う。
実験の結果,ロボット強化学習に事前データを組み込むことで,自律学習が可能となり,学習のサンプル効率が大幅に向上し,一般化が向上した。
関連論文リスト
- So You Think You Can Scale Up Autonomous Robot Data Collection? [22.7035324720716]
強化学習(RL)には、自律的なデータ収集を可能にするという約束がある。
環境設計と計測に要する多大な労力のために、現実世界でのスケーリングは依然として困難である。
イミテーション・ラーニング (IL) の手法は環境設計の努力をほとんど必要とせず、人的監督を必要とする。
論文 参考訳(メタデータ) (2024-11-04T05:31:35Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。