論文の概要: The State of Lifelong Learning in Service Robots: Current Bottlenecks in
Object Perception and Manipulation
- arxiv url: http://arxiv.org/abs/2003.08151v3
- Date: Thu, 6 May 2021 18:58:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:08:55.167711
- Title: The State of Lifelong Learning in Service Robots: Current Bottlenecks in
Object Perception and Manipulation
- Title(参考訳): サービスロボットにおける生涯学習の現状:物体知覚と操作における現在のボツネック
- Authors: S. Hamidreza Kasaei, Jorik Melsen, Floris van Beers, Christiaan
Steenkist, and Klemen Voncina
- Abstract要約: State-of-the-artは、オブジェクトの知覚と操作を適切に結合するように改善を続けている。
ほとんどの場合、ロボットは様々な物体を認識でき、衝突のない軌道を素早く計画して対象物を把握できる。
このような環境下では、バッチ学習に使用するトレーニングデータがどれほど広範囲であっても、ロボットは常に新しいオブジェクトに直面する。
ロボットの自己学習とは別に、専門家でないユーザは、体験獲得のプロセスを対話的にガイドできる。
- 参考スコア(独自算出の注目度): 3.7858180627124463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Service robots are appearing more and more in our daily life. The development
of service robots combines multiple fields of research, from object perception
to object manipulation. The state-of-the-art continues to improve to make a
proper coupling between object perception and manipulation. This coupling is
necessary for service robots not only to perform various tasks in a reasonable
amount of time but also to continually adapt to new environments and safely
interact with non-expert human users. Nowadays, robots are able to recognize
various objects, and quickly plan a collision-free trajectory to grasp a target
object in predefined settings. Besides, in most of the cases, there is a
reliance on large amounts of training data. Therefore, the knowledge of such
robots is fixed after the training phase, and any changes in the environment
require complicated, time-consuming, and expensive robot re-programming by
human experts. Therefore, these approaches are still too rigid for real-life
applications in unstructured environments, where a significant portion of the
environment is unknown and cannot be directly sensed or controlled. In such
environments, no matter how extensive the training data used for batch
learning, a robot will always face new objects. Therefore, apart from batch
learning, the robot should be able to continually learn about new object
categories and grasp affordances from very few training examples on-site.
Moreover, apart from robot self-learning, non-expert users could interactively
guide the process of experience acquisition by teaching new concepts, or by
correcting insufficient or erroneous concepts. In this way, the robot will
constantly learn how to help humans in everyday tasks by gaining more and more
experiences without the need for re-programming.
- Abstract(参考訳): サービスロボットは私たちの日常生活にますます現れています。
サービスロボットの開発は、オブジェクト認識からオブジェクト操作まで、複数の研究分野を組み合わせる。
最先端技術は改善を続け、オブジェクトの知覚と操作を適切に結合する。
この結合は、サービスロボットが適切な時間内に様々なタスクを実行するだけでなく、新しい環境に継続的に適応し、非専門家のユーザーと安全に対話するためにも必要である。
現在、ロボットは様々な物体を認識でき、あらかじめ定義された設定で目標の物体をつかむために衝突のない軌道を迅速に計画することができる。
さらに、ほとんどのケースでは、大量のトレーニングデータに依存しています。
そのため、訓練段階の後にロボットの知識が固定され、環境の変化には人間の専門家による複雑で時間のかかる高価なロボット再プログラミングが必要である。
したがって、これらのアプローチは、環境のかなりの部分が未知であり、直接の認識や制御ができない非構造化環境での現実的な応用には厳密すぎる。
このような環境では、バッチ学習に使用するトレーニングデータがどれだけ広くても、ロボットは常に新しいオブジェクトに直面します。
したがって、バッチ学習とは別に、ロボットは新しい対象カテゴリーについて継続的に学び、ごく少数のトレーニング例から余裕を掴むことができるべきである。
さらに、ロボットの自己学習とは別に、非専門家のユーザは、新しい概念を教えるか、不十分あるいは誤った概念を修正することによって、経験獲得のプロセスをインタラクティブに導くことができる。
このようにして、ロボットは、再プログラミングを必要とせずに、より多くの経験を積んで、日々の作業で人間を助ける方法を常に学べる。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Interactive Continual Learning Architecture for Long-Term
Personalization of Home Service Robots [11.648129262452116]
本研究では,人間とロボットのインタラクションを通じて,家庭環境における意味的知識の連続学習のための対話型連続学習アーキテクチャを開発する。
このアーキテクチャは、人間の新しい知識を効率的かつリアルタイムに学習するための学習と記憶のコア認知原則に基づいている。
論文 参考訳(メタデータ) (2024-03-06T04:55:39Z) - How Do Human Users Teach a Continual Learning Robot in Repeated
Interactions? [7.193217430660011]
我々は、人間が長期にわたって連続学習ロボットを教える方法を理解するために、連続学習に人間中心のアプローチをとる。
我々は,200のセッションで連続学習ロボットと対話する40名の参加者を対象に,対人調査を行った。
本研究で収集したデータの質的,定量的な分析により,個々の利用者の指導スタイルに有意な差異があることが示唆された。
論文 参考訳(メタデータ) (2023-06-30T20:29:48Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Continual Learning of Visual Concepts for Robots through Limited
Supervision [9.89901717499058]
私の研究は、動的に見えない環境で継続的に学習するロボットの開発に焦点を当てています。
私は、ベンチマークデータセットで最新の結果を生成する機械学習モデルを開発します。
論文 参考訳(メタデータ) (2021-01-26T01:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。