論文の概要: Demonstrate Once, Imitate Immediately (DOME): Learning Visual Servoing
for One-Shot Imitation Learning
- arxiv url: http://arxiv.org/abs/2204.02863v1
- Date: Wed, 6 Apr 2022 14:32:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 18:49:48.389414
- Title: Demonstrate Once, Imitate Immediately (DOME): Learning Visual Servoing
for One-Shot Imitation Learning
- Title(参考訳): Imitate Immediately (DOME) : ワンショット模倣学習のためのビジュアルサーボ学習
- Authors: Eugene Valassakis, Georgios Papagiannis, Norman Di Palo and Edward
Johns
- Abstract要約: 1つのデモからタスクを学習し、すぐにデプロイできるDOMEを紹介します。
DOMEは、事前のタスクやオブジェクトの知識を必要としない。
実世界の7つの日常的なタスクにおいて,DOMEが100%近い成功率を達成することを示す。
- 参考スコア(独自算出の注目度): 13.811877075301496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DOME, a novel method for one-shot imitation learning, where a task
can be learned from just a single demonstration and then be deployed
immediately, without any further data collection or training. DOME does not
require prior task or object knowledge, and can perform the task in novel
object configurations and with distractors. At its core, DOME uses an
image-conditioned object segmentation network followed by a learned visual
servoing network, to move the robot's end-effector to the same relative pose to
the object as during the demonstration, after which the task can be completed
by replaying the demonstration's end-effector velocities. We show that DOME
achieves near 100% success rate on 7 real-world everyday tasks, and we perform
several studies to thoroughly understand each individual component of DOME.
- Abstract(参考訳): DOMEは、単発の模倣学習のための新しい手法であり、ひとつの実演からタスクを学習し、さらにデータ収集やトレーニングをすることなく即座にデプロイすることができる。
domeは、事前のタスクやオブジェクトの知識を必要とせず、新しいオブジェクト設定や気晴らしでタスクを実行することができる。
中心となるDOMEは、画像条件付きオブジェクトセグメンテーションネットワークと学習されたビジュアルサーボネットワークを使用して、ロボットのエンドエフェクターをデモ中と同じ相対的なポーズに移動させ、その後、デモのエンドエフェクター速度を再生することでタスクを完了させる。
実世界の7つの日常的なタスクにおいて,DOMEが100%近い成功率を達成できることを示し,DOMEの各コンポーネントを徹底的に理解するために,いくつかの研究を行った。
関連論文リスト
- Few-Shot In-Context Imitation Learning via Implicit Graph Alignment [15.215659641228655]
オブジェクトのグラフ表現間の条件付きアライメント問題として模倣学習を定式化する。
この条件付けにより、ロボットがデモ直後に新しいオブジェクトのセット上でタスクを実行できる、コンテキスト内学習が可能となることを示す。
論文 参考訳(メタデータ) (2023-10-18T18:26:01Z) - Video Task Decathlon: Unifying Image and Video Tasks in Autonomous
Driving [85.62076860189116]
Video Task Decathlon (VTD)には、分類、セグメンテーション、ローカライゼーション、オブジェクトとピクセルの関連にまたがる10の代表的な画像とビデオタスクが含まれている。
我々は、単一の構造と10タスクすべてに一組の重みを持つ統合ネットワークVTDNetを開発した。
論文 参考訳(メタデータ) (2023-09-08T16:33:27Z) - RoboTAP: Tracking Arbitrary Points for Few-Shot Visual Imitation [36.43143326197769]
Track-Any-Point (TAP) モデルは、デモ中の関連する動きを分離し、低レベルのコントローラをパラメータ化して、シーン構成の変化をまたいでこの動きを再現する。
この結果は,形状整合,積み重ね,さらには接着や物体の付着といった完全な経路追従といった複雑な物体配置タスクを解くことのできるロバストなロボットポリシーで示される。
論文 参考訳(メタデータ) (2023-08-30T11:57:04Z) - Learning Sensorimotor Primitives of Sequential Manipulation Tasks from
Visual Demonstrations [13.864448233719598]
本稿では,低レベルポリシーと高レベルポリシーを同時に学習するニューラルネットワークベースの新しいフレームワークについて述べる。
提案手法の重要な特徴は、これらのポリシーがタスクデモの生のビデオから直接学習されることである。
ロボットアームを用いた物体操作タスクの実証実験の結果,提案するネットワークは実際の視覚的な実演から効率よく学習し,タスクを実行することができることがわかった。
論文 参考訳(メタデータ) (2022-03-08T01:36:48Z) - Zero Experience Required: Plug & Play Modular Transfer Learning for
Semantic Visual Navigation [97.17517060585875]
新たなモジュール移動学習モデルを用いて視覚ナビゲーションに統一的な手法を提案する。
我々のモデルは、1つのソースタスクから経験を効果的に活用し、複数のターゲットタスクに適用することができる。
我々のアプローチはより速く学習し、より良く一般化し、大きなマージンでSoTAモデルを上回っます。
論文 参考訳(メタデータ) (2022-02-05T00:07:21Z) - Learning Multi-Stage Tasks with One Demonstration via Self-Replay [9.34061107793983]
本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
論文 参考訳(メタデータ) (2021-11-14T20:57:52Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration [8.57914821832517]
視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
論文 参考訳(メタデータ) (2021-05-13T16:36:55Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。