論文の概要: Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation
- arxiv url: http://arxiv.org/abs/2109.13841v1
- Date: Tue, 28 Sep 2021 16:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:33:19.935674
- Title: Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation
- Title(参考訳): 長軸ロボットマニピュレーションのための非分割デモからのボトムアップスキル発見
- Authors: Yifeng Zhu, Peter Stone, Yuke Zhu
- Abstract要約: 我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 55.31301153979621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle real-world long-horizon robot manipulation tasks through skill
discovery. We present a bottom-up approach to learning a library of reusable
skills from unsegmented demonstrations and use these skills to synthesize
prolonged robot behaviors. Our method starts with constructing a hierarchical
task structure from each demonstration through agglomerative clustering. From
the task structures of multi-task demonstrations, we identify skills based on
the recurring patterns and train goal-conditioned sensorimotor policies with
hierarchical imitation learning. Finally, we train a meta controller to compose
these skills to solve long-horizon manipulation tasks. The entire model can be
trained on a small set of human demonstrations collected within 30 minutes
without further annotations, making it amendable to real-world deployment. We
systematically evaluated our method in simulation environments and on a real
robot. Our method has shown superior performance over state-of-the-art
imitation learning methods in multi-stage manipulation tasks. Furthermore,
skills discovered from multi-task demonstrations boost the average task success
by $8\%$ compared to those discovered from individual tasks.
- Abstract(参考訳): 我々は,実世界のロボット操作課題をスキル発見によって解決する。
本稿では,無意味な実演から再利用可能なスキルのライブラリを学習するためのボトムアップ手法を提案する。
本手法は,各デモンストレーションから凝集クラスタリングにより階層的タスク構造を構築することから始まる。
マルチタスクデモンストレーションのタスク構造から,反復パターンに基づいてスキルを識別し,階層的模倣学習による目標条件付センサモレータポリシを訓練する。
最後に、これらのスキルを構成するためにメタコントローラをトレーニングし、長距離操作タスクを解決する。
モデル全体は、追加のアノテーションなしで、30分以内に収集された少数の人間のデモでトレーニングすることができる。
本手法をシミュレーション環境と実ロボットを用いて体系的に評価した。
本手法は,多段階操作タスクにおいて最先端の模倣学習法よりも優れた性能を示す。
さらに、マルチタスクのデモから見つかったスキルは、個々のタスクから発見されたスキルと比較して平均的なタスク成功率を8\%押し上げます。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Unsupervised Skill Discovery for Robotic Manipulation through Automatic Task Generation [17.222197596599685]
本稿では,多数の自律的タスクを解くことで構成可能な振る舞いを発見するスキル学習手法を提案する。
本手法は,ロボットが環境内の物体と連続的かつ堅牢に対話することを可能にするスキルを学習する。
学習したスキルは、シミュレーションだけでなく、本物のロボットプラットフォーム上でも、目に見えない操作タスクのセットを解決するために使用できる。
論文 参考訳(メタデータ) (2024-10-07T09:19:13Z) - Augmented Reality Demonstrations for Scalable Robot Imitation Learning [25.026589453708347]
本稿では,実証収集のためのAR支援フレームワークについて述べる。
我々は、HoloLens 2.0のようなデバイスを使って、ロボットILのデモを作ることができる非ロボティスティックなユーザーに力を与えます。
従来の3つのロボットのタスク(リーチ、プッシュ、ピック・アンド・プレイス)で、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-20T18:30:12Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Learning Multi-Stage Tasks with One Demonstration via Self-Replay [9.34061107793983]
本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
論文 参考訳(メタデータ) (2021-11-14T20:57:52Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale [103.7609761511652]
大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
論文 参考訳(メタデータ) (2021-04-16T16:38:02Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。