論文の概要: One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2405.13178v2
- Date: Wed, 5 Jun 2024 01:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-23 14:05:12.685076
- Title: One-Shot Imitation Learning with Invariance Matching for Robotic Manipulation
- Title(参考訳): ロボットマニピュレーションのための不変マッチングを用いたワンショット模倣学習
- Authors: Xinyu Zhang, Abdeslam Boularias,
- Abstract要約: IMOPは、注釈のない1つのデモから新しいタスクを学ぶ。
IMOPはまた、新しい形状に一般化し、デモと異なるオブジェクトを操作することを学べる。
- 参考スコア(独自算出の注目度): 23.626443879482743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning a single universal policy that can perform a diverse set of manipulation tasks is a promising new direction in robotics. However, existing techniques are limited to learning policies that can only perform tasks that are encountered during training, and require a large number of demonstrations to learn new tasks. Humans, on the other hand, often can learn a new task from a single unannotated demonstration. In this work, we propose the Invariance-Matching One-shot Policy Learning (IMOP) algorithm. In contrast to the standard practice of learning the end-effector's pose directly, IMOP first learns invariant regions of the state space for a given task, and then computes the end-effector's pose through matching the invariant regions between demonstrations and test scenes. Trained on the 18 RLBench tasks, IMOP achieves a success rate that outperforms the state-of-the-art consistently, by 4.5% on average over the 18 tasks. More importantly, IMOP can learn a novel task from a single unannotated demonstration, and without any fine-tuning, and achieves an average success rate improvement of $11.5\%$ over the state-of-the-art on 22 novel tasks selected across nine categories. IMOP can also generalize to new shapes and learn to manipulate objects that are different from those in the demonstration. Further, IMOP can perform one-shot sim-to-real transfer using a single real-robot demonstration.
- Abstract(参考訳): 多様な操作タスクを実行できる単一の普遍的なポリシーを学ぶことは、ロボティクスにおける有望な新しい方向性である。
しかし、既存のテクニックは、トレーニング中に遭遇したタスクのみを実行することができ、新しいタスクを学ぶために多数のデモを必要とする学習ポリシーに限られている。
一方、人間は1つの無意味なデモンストレーションから新しいタスクを学ぶことができる。
そこで本研究では,IMOP(Invariance-Matching One-shot Policy Learning)アルゴリズムを提案する。
エンドエフェクタのポーズを直接学習する標準的なプラクティスとは対照的に、IMOPはまず与えられたタスクの状態空間の不変領域を学習し、次にデモとテストシーン間の不変領域をマッチングしてエンドエフェクタのポーズを計算する。
IMOPは18のRLBenchタスクで訓練され、18のタスクで平均4.5%、最先端のタスクを継続的に上回る成功率を達成した。
さらに重要なことは、IMOPは1つの未発表のデモから新しいタスクを学習でき、微調整なしで、9つのカテゴリで選択された22の新規タスクに対して、最先端のタスクよりも11.5\%の平均的な成功率の向上を達成することができる。
IMOPはまた、新しい形状に一般化し、デモと異なるオブジェクトを操作することを学べる。
さらに、IMOPは1つの実ロボットデモを用いて、ワンショットのsim-to-real転送を行うことができる。
関連論文リスト
- MOWA: Multiple-in-One Image Warping Model [65.73060159073644]
本研究で提案するマルチ・イン・ワン・イメージ・ワープ・モデル(MOWA)について述べる。
領域レベルと画素レベルでの動作推定を両立させることにより,マルチタスク学習の難しさを軽減する。
私たちの知る限り、これは1つのモデルで複数の実用的なワープタスクを解決する最初の作業です。
論文 参考訳(メタデータ) (2024-04-16T16:50:35Z) - One ACT Play: Single Demonstration Behavior Cloning with Action Chunking
Transformers [11.875194596371484]
人間は1つか2つのデモを見ただけで、複雑なタスクを完了させることを学ぶことができる。
我々の研究は、行動クローニングを使用して、人間の1つのデモンストレーションのみを与えられたタスクを学ぶことで、この能力をエミュレートすることを目指している。
本研究では,行動チャンキングエージェントが推論時に使用する時間的アンサンブル法に新たな付加法を開発した。
論文 参考訳(メタデータ) (2023-09-18T21:50:26Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z) - Multi-Modal Few-Shot Temporal Action Detection [157.96194484236483]
Few-shot (FS) と Zero-shot (ZS) の学習は、時間的行動検出を新しいクラスに拡張するための2つの異なるアプローチである。
我々は、FS-TADとZS-TADの結婚として考えられるMMFS (Multi-modality few-shot) TAD問題を導入する。
論文 参考訳(メタデータ) (2022-11-27T18:13:05Z) - Self-Supervised Learning of Multi-Object Keypoints for Robotic
Manipulation [8.939008609565368]
本稿では,下流政策学習におけるDense Cor correspondence pretext Taskによる画像キーポイントの学習の有効性を示す。
我々は,多様なロボット操作タスクに対するアプローチを評価し,他の視覚表現学習手法と比較し,その柔軟性と有効性を示した。
論文 参考訳(メタデータ) (2022-05-17T13:15:07Z) - Learning Sensorimotor Primitives of Sequential Manipulation Tasks from
Visual Demonstrations [13.864448233719598]
本稿では,低レベルポリシーと高レベルポリシーを同時に学習するニューラルネットワークベースの新しいフレームワークについて述べる。
提案手法の重要な特徴は、これらのポリシーがタスクデモの生のビデオから直接学習されることである。
ロボットアームを用いた物体操作タスクの実証実験の結果,提案するネットワークは実際の視覚的な実演から効率よく学習し,タスクを実行することができることがわかった。
論文 参考訳(メタデータ) (2022-03-08T01:36:48Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Few-Shot Image Classification via Contrastive Self-Supervised Learning [5.878021051195956]
本稿では,欠陥を修復するための教師なし数発学習の新たなパラダイムを提案する。
我々は2つのフェーズでいくつかの課題を解決した: 対照的な自己教師付き学習を通して、伝達可能な特徴抽出器をメタトレーニングする。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-23T02:24:31Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。