論文の概要: AR2-D2:Training a Robot Without a Robot
- arxiv url: http://arxiv.org/abs/2306.13818v1
- Date: Fri, 23 Jun 2023 23:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 19:00:27.618882
- Title: AR2-D2:Training a Robot Without a Robot
- Title(参考訳): AR2-D2:ロボットなしでのトレーニング
- Authors: Jiafei Duan, Yi Ru Wang, Mohit Shridhar, Dieter Fox, Ranjay Krishna
- Abstract要約: 専門的な訓練を要さないデモを収集するシステムであるAR2-D2を紹介する。
AR2-D2は、iOSアプリの形式で、あらゆるオブジェクトを操作する自身のビデオを記録するために使用することができるフレームワークである。
本研究では,本システムを用いて収集したデータにより,実物操作における行動クローニングエージェントの訓練が可能となることを示す。
- 参考スコア(独自算出の注目度): 53.10633639596096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diligently gathered human demonstrations serve as the unsung heroes
empowering the progression of robot learning. Today, demonstrations are
collected by training people to use specialized controllers, which
(tele-)operate robots to manipulate a small number of objects. By contrast, we
introduce AR2-D2: a system for collecting demonstrations which (1) does not
require people with specialized training, (2) does not require any real robots
during data collection, and therefore, (3) enables manipulation of diverse
objects with a real robot. AR2-D2 is a framework in the form of an iOS app that
people can use to record a video of themselves manipulating any object while
simultaneously capturing essential data modalities for training a real robot.
We show that data collected via our system enables the training of behavior
cloning agents in manipulating real objects. Our experiments further show that
training with our AR data is as effective as training with real-world robot
demonstrations. Moreover, our user study indicates that users find AR2-D2
intuitive to use and require no training in contrast to four other frequently
employed methods for collecting robot demonstrations.
- Abstract(参考訳): 厳格に集められた人間のデモは、ロボット学習の進歩を促進するアンサングヒーローとして機能する。
現在デモは、少数のオブジェクトを操作するためにロボットを操作する特殊なコントローラーの使用を訓練する人々によって収集されている。
対照的に,本研究では,(1)専門訓練を要せず,(2)データ収集時に実ロボットを必要とせず,(3)実ロボットによる多種多様な物体の操作を可能にするデモ収集システムar2-d2を紹介する。
ar2-d2はiosアプリの形をしたフレームワークで、あらゆるオブジェクトを操作するビデオを記録し、同時に実際のロボットの訓練に必要なデータモダリティをキャプチャする。
本システムで収集したデータは,実物体操作時の行動クローニングエージェントの訓練を可能にする。
さらに,arデータを用いたトレーニングは実世界のロボットによる実演の訓練と同じくらい効果的であることを示した。
さらに,本研究は,AR2-D2を直感的に使用でき,ロボットのデモを収集する他の4つの方法と対照的に,トレーニングを必要としないことを示唆している。
関連論文リスト
- ARCap: Collecting High-quality Human Demonstrations for Robot Learning with Augmented Reality Feedback [21.9704438641606]
本稿では,拡張現実(AR)と触覚警告を通じて視覚的フィードバックを提供する携帯型データ収集システムARCapを提案する。
ARCapから収集されたデータにより、ロボットは散らかった環境での操作や長い水平交叉操作といった困難なタスクを実行できる。
論文 参考訳(メタデータ) (2024-10-11T02:30:46Z) - Augmented Reality Demonstrations for Scalable Robot Imitation Learning [25.026589453708347]
本稿では,実証収集のためのAR支援フレームワークについて述べる。
我々は、HoloLens 2.0のようなデバイスを使って、ロボットILのデモを作ることができる非ロボティスティックなユーザーに力を与えます。
従来の3つのロボットのタスク(リーチ、プッシュ、ピック・アンド・プレイス)で、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-20T18:30:12Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。