論文の概要: LazyDAgger: Reducing Context Switching in Interactive Imitation Learning
- arxiv url: http://arxiv.org/abs/2104.00053v1
- Date: Wed, 31 Mar 2021 18:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:29:43.510638
- Title: LazyDAgger: Reducing Context Switching in Interactive Imitation Learning
- Title(参考訳): LazyDAgger: インタラクティブな模倣学習におけるコンテキストスイッチングの削減
- Authors: Ryan Hoque, Ashwin Balakrishna, Carl Putterman, Michael Luo, Daniel S.
Brown, Daniel Seita, Brijen Thananjeyan, Ellen Novoseller, Ken Goldberg
- Abstract要約: 今回紹介するLazyDAggerは、対話型模倣学習(IL)アルゴリズムSafeDAggerを拡張し、スーパーバイザと自律制御の間のコンテキストスイッチを低減する。
LazyDAggerは、学習と実行の両方で学習ポリシーのパフォーマンスと堅牢性を向上させます。
- 参考スコア(独自算出の注目度): 23.246687273191412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Corrective interventions while a robot is learning to automate a task provide
an intuitive method for a human supervisor to assist the robot and convey
information about desired behavior. However, these interventions can impose
significant burden on a human supervisor, as each intervention interrupts other
work the human is doing, incurs latency with each context switch between
supervisor and autonomous control, and requires time to perform. We present
LazyDAgger, which extends the interactive imitation learning (IL) algorithm
SafeDAgger to reduce context switches between supervisor and autonomous
control. We find that LazyDAgger improves the performance and robustness of the
learned policy during both learning and execution while limiting burden on the
supervisor. Simulation experiments suggest that LazyDAgger can reduce context
switches by an average of 60% over SafeDAgger on 3 continuous control tasks
while maintaining state-of-the-art policy performance. In physical fabric
manipulation experiments with an ABB YuMi robot, LazyDAgger reduces context
switches by 60% while achieving a 60% higher success rate than SafeDAgger at
execution time.
- Abstract(参考訳): ロボットがタスクの自動化を学習している間の矯正介入は、人間の監督者がロボットを助け、望ましい行動に関する情報を伝えるための直感的な方法を提供する。
しかし、これらの介入は、人間が行っている他の作業を中断し、スーパーバイザと自律制御の間の各コンテキストスイッチに遅延が発生し、実行する時間を必要とするため、人間のスーパーバイザに多大な負担を課す可能性がある。
本稿では、対話型模倣学習(IL)アルゴリズムSafeDAggerを拡張して、監督と自律制御のコンテキストスイッチを削減するLazyDAggerを提案する。
また,LazyDAggerは,学習と実行の両方において学習方針の性能と堅牢性を向上し,監督者の負担を抑えていることがわかった。
シミュレーション実験により、LazyDAggerは、最先端のポリシー性能を維持しながら、3つの継続的制御タスクにおいて、SafeDAggerを平均60%上回るコンテキストスイッチを削減できることが示唆された。
ABB YuMiロボットを用いた物理織物操作実験において、LazyDAggerは、実行時にSafeDAggerよりも60%高い成功率を達成するとともに、コンテキストスイッチを60%削減する。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Adaptive Manipulation using Behavior Trees [12.061325774210392]
本稿では,タスク実行中の視覚的・非視覚的観察にロボットが迅速に適応できる適応行動木を提案する。
産業環境でよく見られる多くのタスクに対して、我々のアプローチを検証します。
論文 参考訳(メタデータ) (2024-06-20T18:01:36Z) - Exploring of Discrete and Continuous Input Control for AI-enhanced
Assistive Robotic Arms [5.371337604556312]
協調ロボットは、オブジェクトの把握や操作といったタスクのために、複数の自由度(DoF)を管理する必要がある。
本研究は,3種類の入力デバイスを,支援ロボットのための確立されたXRフレームワークに統合することによって探索する。
論文 参考訳(メタデータ) (2024-01-13T16:57:40Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - ThriftyDAgger: Budget-Aware Novelty and Risk Gating for Interactive
Imitation Learning [23.177329496817105]
ThriftyDAgger(スリフティダガー)は、人間の介入の予算が与えられたら、人間の上司に問い合わせるアルゴリズムである。
実験により、ThriftyDAggerの介入基準はタスクのパフォーマンスとオーバヘッドを以前のアルゴリズムよりも効果的にバランスしていることが示唆された。
論文 参考訳(メタデータ) (2021-09-17T01:21:16Z) - Behavior Self-Organization Supports Task Inference for Continual Robot
Learning [18.071689266826212]
本稿では,ロボット制御タスクの連続学習に対する新しいアプローチを提案する。
本手法は, 漸進的に自己組織化された行動によって, 行動埋め込みの教師なし学習を行う。
従来の手法とは異なり,本手法ではタスク分布の仮定は行わず,タスクを推論するタスク探索も必要としない。
論文 参考訳(メタデータ) (2021-07-09T16:37:27Z) - Deep Reinforcement Learning for Haptic Shared Control in Unknown Tasks [1.0635248457021496]
Haptic Share Control (HSC) は遠隔操作システムにおける直接遠隔操作の代替である。
仮想誘導力の応用は、ユーザの制御労力を減少させ、様々なタスクの実行時間を改善する。
課題は、実行中のタスクに対して最適なガイド力を提供するためのコントローラの開発にある。
この研究は、支援を提供するための深い決定論的ポリシー勾配(DDPG)アルゴリズムとタスク検出を実行するための畳み込みニューラルネットワーク(CNN)に基づいてコントローラを設計することで、この問題に対処する。
論文 参考訳(メタデータ) (2021-01-15T17:27:38Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z) - Thinking While Moving: Deep Reinforcement Learning with Concurrent
Control [122.49572467292293]
本研究では,制御システムの時間的進化とともに,ポリシーからのアクションのサンプリングを同時に行わなければならないような環境下での強化学習について検討する。
人や動物のように、ロボットは思考と移動を同時に行わなければならず、前の動作が完了する前に次の動作を決定する。
論文 参考訳(メタデータ) (2020-04-13T17:49:29Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。