論文の概要: Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration
- arxiv url: http://arxiv.org/abs/2105.06411v2
- Date: Thu, 10 Jun 2021 17:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:07:24.374210
- Title: Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration
- Title(参考訳): 細かな模倣学習:単一デモによるロボット操作
- Authors: Edward Johns
- Abstract要約: 視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
- 参考スコア(独自算出の注目度): 8.57914821832517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a simple new method for visual imitation learning, which allows
a novel robot manipulation task to be learned from a single human
demonstration, without requiring any prior knowledge of the object being
interacted with. Our method models imitation learning as a state estimation
problem, with the state defined as the end-effector's pose at the point where
object interaction begins, as observed from the demonstration. By then
modelling a manipulation task as a coarse, approach trajectory followed by a
fine, interaction trajectory, this state estimator can be trained in a
self-supervised manner, by automatically moving the end-effector's camera
around the object. At test time, the end-effector moves to the estimated state
through a linear path, at which point the original demonstration's end-effector
velocities are simply replayed. This enables convenient acquisition of a
complex interaction trajectory, without actually needing to explicitly learn a
policy. Real-world experiments on 8 everyday tasks show that our method can
learn a diverse range of skills from a single human demonstration, whilst also
yielding a stable and interpretable controller.
- Abstract(参考訳): そこで本研究では,視覚模倣学習のための簡易な手法を提案する。ロボット操作タスクを,物体の事前知識を必要とせず,人間の1つのデモンストレーションから学習することができる。
提案手法は,物体の相互作用が開始する時点におけるエンドエフェクタのポーズとして定義される状態が,状態推定問題として模倣学習をモデル化する。
次に、操作タスクを粗い、接近軌跡、それに続く細かな相互作用軌跡としてモデル化することにより、この状態推定器を自己監督的に訓練し、エンドエフェクタのカメラをオブジェクトの周囲に自動的に移動させる。
テスト時には、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単純に再生する。
これにより、ポリシーを明示的に学ぶ必要なく、複雑な相互作用軌跡の便利な取得が可能になる。
8つの日常的なタスクにおける実世界の実験は、我々の手法が1人の人間の実演から多様なスキルを習得できることを示している。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - One-shot Imitation Learning via Interaction Warping [32.5466340846254]
本稿では,1つの実演からSE(3)ロボット操作ポリシーを学習するためのインタラクションウォーピング法を提案する。
我々は、オブジェクトインスタンス間で点雲を整列させる技術である形状ワープを用いて、環境中の各オブジェクトの3Dメッシュを推論する。
3つのシミュレーションおよび実世界のオブジェクト再配置タスクで1ショットの模倣学習を成功させる。
論文 参考訳(メタデータ) (2023-06-21T17:26:11Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Multi-Stage Tasks with One Demonstration via Self-Replay [9.34061107793983]
本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
論文 参考訳(メタデータ) (2021-11-14T20:57:52Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Language-Conditioned Imitation Learning for Robot Manipulation Tasks [39.40937105264774]
本研究では,非構造化自然言語を模倣学習に組み込む手法を提案する。
訓練時には、専門家は、基礎となる意図を説明するために、言語記述とともにデモンストレーションを行うことができる。
トレーニングプロセスはこれらの2つのモードを相互に関連付け、言語、知覚、動きの相関を符号化する。
結果として得られた言語条件のvisuomotorポリシーは、実行時に新しいヒューマンコマンドと命令で条件付けできる。
論文 参考訳(メタデータ) (2020-10-22T21:49:08Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。