論文の概要: Learning Multi-Stage Tasks with One Demonstration via Self-Replay
- arxiv url: http://arxiv.org/abs/2111.07447v1
- Date: Sun, 14 Nov 2021 20:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 05:19:44.603100
- Title: Learning Multi-Stage Tasks with One Demonstration via Self-Replay
- Title(参考訳): 自己再生による複数段階タスクの学習
- Authors: Norman Di Palo and Edward Johns
- Abstract要約: 本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
- 参考スコア(独自算出の注目度): 9.34061107793983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a novel method to learn everyday-like multi-stage
tasks from a single human demonstration, without requiring any prior object
knowledge. Inspired by the recent Coarse-to-Fine Imitation Learning method, we
model imitation learning as a learned object reaching phase followed by an
open-loop replay of the demonstrator's actions. We build upon this for
multi-stage tasks where, following the human demonstration, the robot can
autonomously collect image data for the entire multi-stage task, by reaching
the next object in the sequence and then replaying the demonstration, and then
repeating in a loop for all stages of the task. We evaluate with real-world
experiments on a set of everyday-like multi-stage tasks, which we show that our
method can solve from a single demonstration. Videos and supplementary material
can be found at https://www.robot-learning.uk/self-replay.
- Abstract(参考訳): そこで本研究では,事前のオブジェクト知識を必要とせず,人間の1つのデモンストレーションから日常的な多段階タスクを学習する新しい手法を提案する。
近年の細かな模倣学習法に触発されて,模倣学習を学習対象の到達段階としてモデル化し,実演者の行動のオープンループ再生を行った。
人間の実演の後、ロボットは次の物体に連続して到達し、デモを再生し、タスクのすべての段階に対してループを繰り返すことで、マルチステージタスク全体の画像データを自律的に収集することができる。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
ビデオと補足資料はhttps://www.robot-learning.uk/self-replayで見ることができる。
関連論文リスト
- DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Cross-Domain Transfer via Semantic Skill Imitation [49.83150463391275]
本稿では、例えば人間ビデオなどのソースドメインからのデモンストレーションを利用して、強化学習(RL)を高速化する意味模倣手法を提案する。
関節速度のような低レベルな動作を模倣する代わりに、我々のアプローチは「電子レンジを開く」や「ストーブを回す」といった、実証された意味的なスキルのシーケンスを模倣する。
論文 参考訳(メタデータ) (2022-12-14T18:46:14Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration [8.57914821832517]
視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
論文 参考訳(メタデータ) (2021-05-13T16:36:55Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。