論文の概要: MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale
- arxiv url: http://arxiv.org/abs/2104.08212v1
- Date: Fri, 16 Apr 2021 16:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:11:44.795012
- Title: MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale
- Title(参考訳): MT-Opt: スケールでの連続マルチタスクロボット強化学習
- Authors: Dmitry Kalashnikov, Jacob Varley, Yevgen Chebotar, Benjamin Swanson,
Rico Jonschkowski, Chelsea Finn, Sergey Levine, Karol Hausman
- Abstract要約: 大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
- 参考スコア(独自算出の注目度): 103.7609761511652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: General-purpose robotic systems must master a large repertoire of diverse
skills to be useful in a range of daily tasks. While reinforcement learning
provides a powerful framework for acquiring individual behaviors, the time
needed to acquire each skill makes the prospect of a generalist robot trained
with RL daunting. In this paper, we study how a large-scale collective robotic
learning system can acquire a repertoire of behaviors simultaneously, sharing
exploration, experience, and representations across tasks. In this framework
new tasks can be continuously instantiated from previously learned tasks
improving overall performance and capabilities of the system. To instantiate
this system, we develop a scalable and intuitive framework for specifying new
tasks through user-provided examples of desired outcomes, devise a multi-robot
collective learning system for data collection that simultaneously collects
experience for multiple tasks, and develop a scalable and generalizable
multi-task deep reinforcement learning method, which we call MT-Opt. We
demonstrate how MT-Opt can learn a wide range of skills, including semantic
picking (i.e., picking an object from a particular category), placing into
various fixtures (e.g., placing a food item onto a plate), covering, aligning,
and rearranging. We train and evaluate our system on a set of 12 real-world
tasks with data collected from 7 robots, and demonstrate the performance of our
system both in terms of its ability to generalize to structurally similar new
tasks, and acquire distinct new tasks more quickly by leveraging past
experience. We recommend viewing the videos at
https://karolhausman.github.io/mt-opt/
- Abstract(参考訳): 汎用ロボットシステムは、さまざまなスキルの大規模なレパートリーを習得し、日々のタスクに役立てなければならない。
強化学習は個人の行動を取得するための強力な枠組みを提供する一方で、各スキルを習得するのに必要な時間は、RLダウンティングで訓練されたジェネラリストロボットの見通しである。
本稿では,大規模集団ロボット学習システムにおいて,タスク間の探索,経験,表現の共有により,行動のレパートリーを同時取得する方法について検討する。
このフレームワークでは、以前の学習したタスクから新しいタスクを継続的にインスタンス化し、システム全体のパフォーマンスと能力を改善することができる。
このシステムをインスタンス化するために,ユーザが提供する望ましい結果の例を通して新たなタスクを特定するためのスケーラブルで直感的なフレームワークを開発し,複数のタスクの経験を同時に収集するデータ収集のためのマルチロボット集合学習システムを考案し,MT-Optと呼ぶスケーラブルで汎用的なマルチタスク深層強化学習手法を開発した。
mt-optが、セマンティックピッキング(例えば、特定のカテゴリからオブジェクトを選択する)、さまざまなフィクスチャ(例えば、皿に食べ物を置く)、カバー、調整、再配置など、幅広いスキルを学べる様子を実証する。
我々は,7つのロボットから収集したデータを用いて,実世界の12のタスクをトレーニングし,評価し,構造的に類似した新しいタスクに一般化する能力と,過去の経験を生かしてより迅速な新たなタスクの獲得能力の両方の観点から,システムの性能を実証する。
ビデオはhttps://karolhausman.github.io/mt-opt/で見ることをお勧めします。
関連論文リスト
- ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Learning from Guided Play: A Scheduled Hierarchical Approach for
Improving Exploration in Adversarial Imitation Learning [7.51557557629519]
本稿では,主課題,複数の補助課題に加えて,専門家による実演を活用するためのフレームワークであるLearning from Guided Play (LfGP)を紹介する。
主なタスクに対する学習効率は、ボトルネック遷移に挑戦して改善され、専門家データがタスク間で再利用可能になり、学習した補助タスクモデルの再利用を通じて学習を移行することが可能になります。
論文 参考訳(メタデータ) (2021-12-16T14:58:08Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Intrinsically Motivated Open-Ended Multi-Task Learning Using Transfer
Learning to Discover Task Hierarchy [0.0]
オープンエンド環境では、ロボットは階層的強化学習において複数のパラメータ化された制御タスクを学習する必要がある。
最も複雑なタスクは、より単純なタスクから知識を転送することでより簡単に学習でき、タスクにアクションの複雑さを適用することでより早く学習できることを示します。
複雑な行動のタスク指向表現(手順と呼ばれる)を提案し、オンラインのタスク関係とアクションプリミティブの無制限のシーケンスを学び、環境の異なる可観測性を制御する。
論文 参考訳(メタデータ) (2021-02-19T10:44:08Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。