論文の概要: How Can Everyday Users Efficiently Teach Robots by Demonstrations?
- arxiv url: http://arxiv.org/abs/2310.13083v1
- Date: Thu, 19 Oct 2023 18:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:47:49.498262
- Title: How Can Everyday Users Efficiently Teach Robots by Demonstrations?
- Title(参考訳): 実演でロボットを効率的に教えるには?
- Authors: Maram Sakr, Zhikai Zhang, Benjamin Li, Haomiao Zhang, H.F. Machiel Van
der Loos, Dana Kulic and Elizabeth Croft
- Abstract要約: 本稿では,人間の教師に情報伝達の実証例を提案するための指標として,タスク関連情報エントロピーという不確実性の尺度を提案する。
その結果,教師のデモンストレーションからロボット学習効率が大幅に向上した。
- 参考スコア(独自算出の注目度): 3.6145826787059643
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from Demonstration (LfD) is a framework that allows lay users to
easily program robots. However, the efficiency of robot learning and the
robot's ability to generalize to task variations hinges upon the quality and
quantity of the provided demonstrations. Our objective is to guide human
teachers to furnish more effective demonstrations, thus facilitating efficient
robot learning. To achieve this, we propose to use a measure of uncertainty,
namely task-related information entropy, as a criterion for suggesting
informative demonstration examples to human teachers to improve their teaching
skills. In a conducted experiment (N=24), an augmented reality (AR)-based
guidance system was employed to train novice users to produce additional
demonstrations from areas with the highest entropy within the workspace. These
novice users were trained for a few trials to teach the robot a generalizable
task using a limited number of demonstrations. Subsequently, the users'
performance after training was assessed first on the same task (retention) and
then on a novel task (transfer) without guidance. The results indicated a
substantial improvement in robot learning efficiency from the teacher's
demonstrations, with an improvement of up to 198% observed on the novel task.
Furthermore, the proposed approach was compared to a state-of-the-art heuristic
rule and found to improve robot learning efficiency by 210% compared to the
heuristic rule.
- Abstract(参考訳): learning from demonstration (lfd)は、ユーザーが簡単にロボットをプログラムできるフレームワークである。
しかし、ロボット学習の効率性とタスクのバリエーションを一般化するロボットの能力は、提供されたデモの質と量に依存する。
我々の目的は、人間の教師がより効果的なデモを行うよう指導し、効率的なロボット学習を促進することである。
そこで,本研究では,タスク関連情報エントロピーという不確実性尺度を,教師の指導力向上のための情報提示事例を提示するための基準として用いることを提案する。
実施実験(N=24)では,作業空間内で最もエントロピーの高い領域から,初心者を訓練するための拡張現実(AR)に基づく指導システムを用いた。
これらの初心者は、限られた数のデモを使ってロボットに汎用的なタスクを教えるためのいくつかの試行のために訓練された。
その後、トレーニング後のユーザのパフォーマンスを、まず同じタスク(保持)で評価し、その後、ガイダンスなしで新しいタスク(転送)で評価した。
その結果,教師のデモンストレーションではロボットの学習効率が大幅に向上し,新たな課題では最大198%の改善が見られた。
さらに,提案手法を最先端のヒューリスティック・ルールと比較し,ヒューリスティック・ルールと比較してロボット学習効率を210%向上させた。
関連論文リスト
- SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、20Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - Augmented Reality Demonstrations for Scalable Robot Imitation Learning [25.026589453708347]
本稿では,実証収集のためのAR支援フレームワークについて述べる。
我々は、HoloLens 2.0のようなデバイスを使って、ロボットILのデモを作ることができる非ロボティスティックなユーザーに力を与えます。
従来の3つのロボットのタスク(リーチ、プッシュ、ピック・アンド・プレイス)で、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-20T18:30:12Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Training Humans to Train Robots Dynamic Motor Skills [5.5586788751870175]
本稿では,実演の質を決定するための指標を導出する機械教育について検討する。
簡単な学習ロボットを用いた実験では,提案手法による指導と指導が,学習者スキルの最大66.5%の誤差を減少させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-04-17T19:39:07Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Interactive Robot Training for Non-Markov Tasks [6.252236971703546]
本研究では,教師が提示した2つのデモからロボットを学習することのできる,ベイズ的対話型ロボット訓練フレームワークを提案する。
また、タスク実行を最も不確実な受け入れ可能性で識別するためのアクティブな学習手法を提案する。
我々は,ロボットにディナーテーブルをセットするように教えるユーザスタディを通じて,現実の環境でのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-03-04T18:19:05Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。