論文の概要: BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning
- arxiv url: http://arxiv.org/abs/2202.02005v1
- Date: Fri, 4 Feb 2022 07:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 23:41:55.560013
- Title: BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning
- Title(参考訳): BC-Z:ロボット模倣学習によるゼロショットタスク一般化
- Authors: Eric Jang, Alex Irpan, Mohi Khansari, Daniel Kappler, Frederik Ebert,
Corey Lynch, Sergey Levine, Chelsea Finn
- Abstract要約: 本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
- 参考スコア(独自算出の注目度): 108.41464483878683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of enabling a vision-based robotic
manipulation system to generalize to novel tasks, a long-standing challenge in
robot learning. We approach the challenge from an imitation learning
perspective, aiming to study how scaling and broadening the data collected can
facilitate such generalization. To that end, we develop an interactive and
flexible imitation learning system that can learn from both demonstrations and
interventions and can be conditioned on different forms of information that
convey the task, including pre-trained embeddings of natural language or videos
of humans performing the task. When scaling data collection on a real robot to
more than 100 distinct tasks, we find that this system can perform 24 unseen
manipulation tasks with an average success rate of 44%, without any robot
demonstrations for those tasks.
- Abstract(参考訳): 本稿では,視覚に基づくロボット操作システムを新しいタスクに一般化する,ロボット学習における長年の課題である課題について検討する。
模倣学習の観点からこの課題にアプローチし,収集したデータのスケールアップと拡大が,そのような一般化をいかに促進できるかを検討する。
そこで本研究では,対話型かつ柔軟な模倣学習システムを開発し,実演と介入の両方から学習し,そのタスクを伝達するさまざまな形態の情報,例えば自然言語の予め訓練された埋め込みやタスクを実行する人間の映像を条件付ける。
実ロボット上のデータ収集を100以上の異なるタスクにスケールすると、このシステムは平均成功率44%で24の非認識操作タスクを実行でき、ロボットによるタスクのデモンストレーションは行われない。
関連論文リスト
- VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。