論文の概要: Data-Efficient Learning from Human Interventions for Mobile Robots
- arxiv url: http://arxiv.org/abs/2503.04969v1
- Date: Thu, 06 Mar 2025 21:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:04.152379
- Title: Data-Efficient Learning from Human Interventions for Mobile Robots
- Title(参考訳): 移動ロボットのためのヒューマン・インターベンションからのデータ効率向上学習
- Authors: Zhenghao Peng, Zhizheng Liu, Bolei Zhou,
- Abstract要約: モバイルロボットは、自律デリバリやホスピタリティサービスといったアプリケーションに不可欠である。
モバイルロボットタスクに学習ベースの手法を適用することは、その堅牢性と一般化性から人気を集めている。
Imitation Learning (IL) や Reinforcement Learning (RL) といった従来の手法は、適応性を提供するが、大きなデータセット、慎重に構築された報酬関数、そして実際のギャップに直面する。
本稿では,ILとRLを組み合わせたオンライン・ヒューマン・イン・ザ・ループ学習手法PVP4Realを提案する。
- 参考スコア(独自算出の注目度): 46.65860995185883
- License:
- Abstract: Mobile robots are essential in applications such as autonomous delivery and hospitality services. Applying learning-based methods to address mobile robot tasks has gained popularity due to its robustness and generalizability. Traditional methods such as Imitation Learning (IL) and Reinforcement Learning (RL) offer adaptability but require large datasets, carefully crafted reward functions, and face sim-to-real gaps, making them challenging for efficient and safe real-world deployment. We propose an online human-in-the-loop learning method PVP4Real that combines IL and RL to address these issues. PVP4Real enables efficient real-time policy learning from online human intervention and demonstration, without reward or any pretraining, significantly improving data efficiency and training safety. We validate our method by training two different robots -- a legged quadruped, and a wheeled delivery robot -- in two mobile robot tasks, one of which even uses raw RGBD image as observation. The training finishes within 15 minutes. Our experiments show the promising future of human-in-the-loop learning in addressing the data efficiency issue in real-world robotic tasks. More information is available at: https://metadriverse.github.io/pvp4real/
- Abstract(参考訳): モバイルロボットは、自律デリバリやホスピタリティサービスといったアプリケーションに不可欠である。
モバイルロボットタスクに学習ベースの手法を適用することは、その堅牢性と一般化性から人気を集めている。
Imitation Learning (IL) や Reinforcement Learning (RL) といった従来の手法は、適応性を提供するが、大きなデータセット、慎重に構築された報酬関数、そして実際のギャップに直面する必要がある。
本稿では,ILとRLを組み合わせたオンライン・ヒューマン・イン・ザ・ループ学習手法PVP4Realを提案する。
PVP4Realは、報酬や事前訓練なしに、オンラインの人間の介入やデモンストレーションから効率的なリアルタイムポリシー学習を可能にし、データ効率とトレーニングの安全性を大幅に改善する。
私たちは2つの異なるロボット(四足歩行ロボットと四足歩行ロボット)を2つの移動ロボットタスクで訓練し、その中の1つは生のRGBD画像を観察する。
訓練は15分以内に終了する。
我々の実験は、実世界のロボットタスクにおけるデータ効率の問題に対処する上で、ループ内学習の有望な将来性を示す。
詳細は、https://metadriverse.github.io/pvp4real/で確認できる。
関連論文リスト
- Towards General Purpose Robots at Scale: Lifelong Learning and Learning to Use Memory [0.0]
このテーマは、記憶と生涯学習という、長い時間をかけて動くロボットにとっての2つの重要な課題に対処することに焦点を当てている。
まず,連続世界ベンチマークにおける最先端性能を実現するトラジェクトリベースディープ生成再生法であるt-DGRを紹介する。
第2に,人間の実演を利用してエージェントに効果的なメモリ利用を教えるフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-28T21:13:48Z) - Advancing Household Robotics: Deep Interactive Reinforcement Learning for Efficient Training and Enhanced Performance [0.0]
強化学習(Reinforcement Learning, RL)は、ロボットが環境と対話することを可能にする重要なロボティクス技術として登場した。
本稿では,Deep Interactive Reinforcement Learningを通じて情報とアドバイスを保存・再利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-29T01:46:50Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。