論文の概要: Continual Learning from Demonstration of Robotics Skills
- arxiv url: http://arxiv.org/abs/2202.06843v4
- Date: Wed, 12 Apr 2023 19:05:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 20:53:40.588091
- Title: Continual Learning from Demonstration of Robotics Skills
- Title(参考訳): ロボットスキルの実証から学ぶ
- Authors: Sayantan Auddy, Jakob Hollenstein, Matteo Saveriano, Antonio
Rodr\'iguez-S\'anchez and Justus Piater
- Abstract要約: ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
- 参考スコア(独自算出の注目度): 5.573543601558405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Methods for teaching motion skills to robots focus on training for a single
skill at a time. Robots capable of learning from demonstration can considerably
benefit from the added ability to learn new movement skills without forgetting
what was learned in the past. To this end, we propose an approach for continual
learning from demonstration using hypernetworks and neural ordinary
differential equation solvers. We empirically demonstrate the effectiveness of
this approach in remembering long sequences of trajectory learning tasks
without the need to store any data from past demonstrations. Our results show
that hypernetworks outperform other state-of-the-art continual learning
approaches for learning from demonstration. In our experiments, we use the
popular LASA benchmark, and two new datasets of kinesthetic demonstrations
collected with a real robot that we introduce in this paper called the
HelloWorld and RoboTasks datasets. We evaluate our approach on a physical robot
and demonstrate its effectiveness in learning real-world robotic tasks
involving changing positions as well as orientations. We report both trajectory
error metrics and continual learning metrics, and we propose two new continual
learning metrics. Our code, along with the newly collected datasets, is
available at https://github.com/sayantanauddy/clfd.
- Abstract(参考訳): ロボットにモーションスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
デモから学べるロボットは、過去に学んだことを忘れずに新しい動きのスキルを習得する能力の恩恵を受けることができる。
そこで本研究では,ハイパーネットワークとニューラル常微分方程式解法を用いた実演からの連続学習手法を提案する。
我々は,過去のデータを保存することなく,軌道学習タスクの長いシーケンスを記憶する手法の有効性を実証的に実証する。
その結果,ハイパーネットワークは,実演から学ぶための最先端の連続学習手法よりも優れていることがわかった。
実験では、人気のあるlasaベンチマークと、本論文で紹介するhelloworldとrobotasksデータセットと呼ばれる実際のロボットで収集された審美的デモンストレーションの2つの新しいデータセットを使用します。
本研究は,物理的ロボットに対するアプローチを評価し,方向や位置の変化を伴う実世界ロボットタスクの学習にその効果を示す。
軌道誤差メトリクスと連続学習メトリクスの両方を報告し,新しい連続学習メトリクスを2つ提案する。
私たちのコードは、新たに収集したデータセットとともに、https://github.com/sayantanauddy/clfd.comで利用可能です。
関連論文リスト
- VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - How Can Everyday Users Efficiently Teach Robots by Demonstrations? [3.6145826787059643]
本稿では,人間の教師に情報伝達の実証例を提案するための指標として,タスク関連情報エントロピーという不確実性の尺度を提案する。
その結果,教師のデモンストレーションからロボット学習効率が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-19T18:21:39Z) - Exploring Visual Pre-training for Robot Manipulation: Datasets, Models
and Methods [14.780597545674157]
本稿では,3つの基本的視点から,視覚的事前学習がロボット操作作業に及ぼす影響について検討する。
自己教師型学習と教師型学習を組み合わせた視覚的事前学習方式Vi-PRoMを提案する。
論文 参考訳(メタデータ) (2023-08-07T14:24:52Z) - Scaling Robot Learning with Semantically Imagined Experience [21.361979238427722]
ロボット学習の最近の進歩は、ロボットが操作タスクを実行できることを約束している。
この進歩に寄与する要因の1つは、モデルのトレーニングに使用されるロボットデータのスケールである。
本稿では,コンピュータビジョンや自然言語処理に広く用いられているテキスト・ツー・イメージ基盤モデルを利用した代替手法を提案する。
論文 参考訳(メタデータ) (2023-02-22T18:47:51Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。