論文の概要: Evaluating Continual Learning on a Home Robot
- arxiv url: http://arxiv.org/abs/2306.02413v1
- Date: Sun, 4 Jun 2023 17:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:55:31.584249
- Title: Evaluating Continual Learning on a Home Robot
- Title(参考訳): ホームロボットにおける連続学習の評価
- Authors: Sam Powers, Abhinav Gupta, Chris Paxton
- Abstract要約: そこで本研究では,現実の低コストなホームロボットにおいて,連続学習手法をどのように適用することができるかを示す。
本稿では,スキルライブラリを継続的に学習するSANERと,それを支援するバックボーンとしてABIPを提案する。
- 参考スコア(独自算出の注目度): 30.620205237707342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots in home environments need to be able to learn new skills continuously
as data becomes available, becoming ever more capable over time while using as
little real-world data as possible. However, traditional robot learning
approaches typically assume large amounts of iid data, which is inconsistent
with this goal. In contrast, continual learning methods like CLEAR and SANE
allow autonomous agents to learn off of a stream of non-iid samples; they,
however, have not previously been demonstrated on real robotics platforms. In
this work, we show how continual learning methods can be adapted for use on a
real, low-cost home robot, and in particular look at the case where we have
extremely small numbers of examples, in a task-id-free setting. Specifically,
we propose SANER, a method for continuously learning a library of skills, and
ABIP (Attention-Based Interaction Policies) as the backbone to support it. We
learn four sequential kitchen tasks on a low-cost home robot, using only a
handful of demonstrations per task.
- Abstract(参考訳): 家庭環境のロボットは、データが利用可能になると、新しいスキルを継続的に学習し、できるだけ小さな実世界データを使用しながら、時間とともにより有能になる必要がある。
しかし、従来のロボット学習のアプローチは、この目標と矛盾する大量のiidデータを想定することが多い。
対照的に、CLEARやSANEのような連続的な学習手法は、自律的なエージェントが非idサンプルのストリームから学ぶことを可能にする。
本研究では,実際の低コストホームロボットにおいて,連続的な学習手法をどのように適用することができるかを示し,特にタスク・イド・フリー・セッティングにおいて,極めて少数の実例が存在する場合について考察する。
具体的には,スキルのライブラリを継続的に学習する手法であるSANERと,それをサポートするバックボーンとしてABIP(Attention-Based Interaction Policies)を提案する。
低コストのホームロボットで4つの連続的なキッチンタスクを学習し、1つのタスクにほんの数回のデモしか使っていない。
関連論文リスト
- Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。