論文の概要: RVT-2: Learning Precise Manipulation from Few Demonstrations
- arxiv url: http://arxiv.org/abs/2406.08545v1
- Date: Wed, 12 Jun 2024 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 22:27:16.712647
- Title: RVT-2: Learning Precise Manipulation from Few Demonstrations
- Title(参考訳): RVT-2:少数のデモから精密マニピュレーションを学ぶ
- Authors: Ankit Goyal, Valts Blukis, Jie Xu, Yijie Guo, Yu-Wei Chao, Dieter Fox,
- Abstract要約: RVT-2は、トレーニングで6倍、推論で2倍高速なマルチタスク3D操作モデルである。
RLBenchの新たな最先端を実現し、成功率は65%から82%に向上した。
RVT-2は実世界でも有効であり、プラグの拾い上げや挿入といった高精度なタスクを10回のデモで学べる。
- 参考スコア(独自算出の注目度): 43.48649783097065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study how to build a robotic system that can solve multiple 3D manipulation tasks given language instructions. To be useful in industrial and household domains, such a system should be capable of learning new tasks with few demonstrations and solving them precisely. Prior works, like PerAct and RVT, have studied this problem, however, they often struggle with tasks requiring high precision. We study how to make them more effective, precise, and fast. Using a combination of architectural and system-level improvements, we propose RVT-2, a multitask 3D manipulation model that is 6X faster in training and 2X faster in inference than its predecessor RVT. RVT-2 achieves a new state-of-the-art on RLBench, improving the success rate from 65% to 82%. RVT-2 is also effective in the real world, where it can learn tasks requiring high precision, like picking up and inserting plugs, with just 10 demonstrations. Visual results, code, and trained model are provided at: https://robotic-view-transformer-2.github.io/.
- Abstract(参考訳): 本研究では,言語命令を与えられた複数の3D操作タスクを解くロボットシステムの構築方法について検討する。
産業ドメインや家庭ドメインで有用であるためには、このようなシステムは、デモを少なくして新しいタスクを学習し、それらを正確に解決できるべきである。
PerAct や RVT のような先行研究はこの問題を研究してきたが、高い精度を必要とするタスクに悩まされることが多い。
私たちはそれらをより効果的、正確、迅速にする方法を研究します。
アーキテクチャとシステムレベルの改善の組み合わせを用いて,従来のRVTよりも6倍高速で2倍高速なマルチタスク3D操作モデルであるRVT-2を提案する。
RVT-2はRLBenchの新たな最先端を実現し、成功率は65%から82%に向上した。
RVT-2は実世界でも有効であり、プラグの拾い上げや挿入といった高精度なタスクを10回のデモで学べる。
ビジュアル結果、コード、トレーニングされたモデルは以下の通りである。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own [59.11934130045106]
我々は、政策、価値、成功-回帰基盤モデルからのガイダンスとフィードバックを活用するために、RLFP(Reinforcement Learning with Foundation Priors)を提案する。
本フレームワークでは,自動報酬関数を用いてより効率的にエージェントを探索できるファウンデーション誘導型アクター・クリティカル(FAC)アルゴリズムを導入する。
本手法は,実ロボットとシミュレーションの両方において,様々な操作タスクにおいて顕著な性能を実現する。
論文 参考訳(メタデータ) (2023-10-04T07:56:42Z) - RVT: Robotic View Transformer for 3D Object Manipulation [46.25268237442356]
本稿では,スケーラブルかつ高精度な3次元操作のためのマルチビュー変換器RVTを提案する。
単一のRVTモデルは18のRLBenchタスクに対して249のタスクバリエーションでうまく動作し、既存の最先端手法(PerAct)よりも26%高い相対的な成功を達成している。
論文 参考訳(メタデータ) (2023-06-26T17:59:31Z) - VIMA: General Robot Manipulation with Multimodal Prompts [82.01214865117637]
ロボット操作タスクの幅広い範囲をマルチモーダルプロンプトで表現できることを示す。
我々は,数千の手続き的に生成されたテーブルトップタスクからなる新しいシミュレーションベンチマークを開発した。
我々は、これらのプロンプトを処理し、自動回帰的に運動動作を出力するトランスフォーマーベースのロボットエージェントVIMAを設計する。
論文 参考訳(メタデータ) (2022-10-06T17:50:11Z) - Accelerating Robot Learning of Contact-Rich Manipulations: A Curriculum
Learning Study [4.045850174820418]
本稿では,Domain Randomization(DR)と組み合わせたカリキュラム学習に基づく,コンタクトリッチな操作タスクのロボット学習の高速化に関する研究を行う。
挿入タスクのような位置制御ロボットによる複雑な産業組み立てタスクに対処する。
また,おもちゃのタスクを用いたシミュレーションでのみトレーニングを行う場合においても,現実のロボットに伝達可能なポリシーを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-04-27T11:08:39Z) - R3M: A Universal Visual Representation for Robot Manipulation [91.55543664116209]
多様な人間の映像データに基づいて事前訓練された視覚表現が、ロボット操作タスクのデータ効率の学習を可能にする方法について検討する。
R3Mは、CLIPやMoCoのような最先端のビジュアル表現と比較して、スクラッチからのトレーニングよりも20%以上改善し、10%以上改善しています。
論文 参考訳(メタデータ) (2022-03-23T17:55:09Z) - Transporters with Visual Foresight for Solving Unseen Rearrangement
Tasks [12.604533231243543]
Visual Foresight (TVF) を使ったトランスポーターは、目に見えないタスクに対してマルチタスク学習とゼロショットの一般化を実現することができる。
TVFは、シミュレーションと実際のロボット実験において、トレーニングと見えないタスクの両方において、最先端の模倣学習手法の性能を向上させることができる。
論文 参考訳(メタデータ) (2022-02-22T09:35:09Z) - Assembly robots with optimized control stiffness through reinforcement
learning [3.4410212782758047]
本稿では,ロボットの性能向上のために強化学習を利用する手法を提案する。
提案手法は,局所軌道最適化の性能向上に役立つ剛性行列のオンライン生成を保証する。
本手法の有効性は,2つのコンタクトリッチタスクを含む実験により検証した。
論文 参考訳(メタデータ) (2020-02-27T15:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。