論文の概要: Continual Learning of Visual Concepts for Robots through Limited
Supervision
- arxiv url: http://arxiv.org/abs/2101.10509v1
- Date: Tue, 26 Jan 2021 01:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 15:13:10.160849
- Title: Continual Learning of Visual Concepts for Robots through Limited
Supervision
- Title(参考訳): 限定監督によるロボットの視覚概念の連続学習
- Authors: Ali Ayub, Alan R. Wagner
- Abstract要約: 私の研究は、動的に見えない環境で継続的に学習するロボットの開発に焦点を当てています。
私は、ベンチマークデータセットで最新の結果を生成する機械学習モデルを開発します。
- 参考スコア(独自算出の注目度): 9.89901717499058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For many real-world robotics applications, robots need to continually adapt
and learn new concepts. Further, robots need to learn through limited data
because of scarcity of labeled data in the real-world environments. To this
end, my research focuses on developing robots that continually learn in dynamic
unseen environments/scenarios, learn from limited human supervision, remember
previously learned knowledge and use that knowledge to learn new concepts. I
develop machine learning models that not only produce State-of-the-results on
benchmark datasets but also allow robots to learn new objects and scenes in
unconstrained environments which lead to a variety of novel robotics
applications.
- Abstract(参考訳): 多くの現実世界のロボティクスアプリケーションでは、ロボットは絶えず適応し、新しい概念を学ぶ必要があります。
さらに、ロボットは現実世界の環境でラベル付きデータの不足のために限られたデータを通して学ぶ必要があります。
この目的のために、私は動的に見えない環境やシナリオで継続的に学習し、限られた人間の監督から学習し、以前に学んだ知識を覚え、その知識を使って新しい概念を学習するロボットの開発に重点を置いています。
私は、ベンチマークデータセットでState-of-the-resultを生成できるだけでなく、ロボットが制約のない環境で新しいオブジェクトやシーンを学習できるようにする機械学習モデルを開発しています。
関連論文リスト
- Growing from Exploration: A self-exploring framework for robots based on
foundation models [13.250831101705694]
我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
論文 参考訳(メタデータ) (2024-01-24T14:04:08Z) - Continual Learning through Human-Robot Interaction -- Human Perceptions
of a Continual Learning Robot in Repeated Interactions [7.717214217542406]
物体認識のためのCLモデルとFetch移動マニピュレータロボットを統合するシステムを開発した。
300セッション(参加者5セッション)でシステムと対話する60人の参加者を対象に調査を行った。
本研究は, ロボットが学習対象を忘れた場合, 継続学習ロボットの信頼性, 能力, ユーザビリティに対する参加者の認識が, 複数のセッションで著しく低下することが示唆された。
論文 参考訳(メタデータ) (2023-05-22T01:14:46Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - World Models and Predictive Coding for Cognitive and Developmental
Robotics: Frontiers and Challenges [51.92834011423463]
我々は世界モデルと予測符号化の2つの概念に焦点を当てる。
神経科学において、予測符号化は、脳がその入力を継続的に予測し、その環境における自身のダイナミクスと制御行動のモデル化に適応するように提案する。
論文 参考訳(メタデータ) (2023-01-14T06:38:14Z) - DayDreamer: World Models for Physical Robot Learning [142.11031132529524]
深層強化学習はロボット学習の一般的なアプローチであるが、学習するには大量の試行錯誤が必要となる。
ロボット学習の多くの進歩はシミュレータに依存している。
本稿では,Dreamerを4つのロボットに適用し,シミュレータを使わずに,オンラインおよび実世界で直接学習する。
論文 参考訳(メタデータ) (2022-06-28T17:44:48Z) - Back to Reality for Imitation Learning [8.57914821832517]
模倣学習と一般のロボット学習は、ロボット工学のブレークスルーではなく、機械学習のブレークスルーによって生まれた。
私たちは、現実世界のロボット学習のより良い指標は時間効率であり、人間の真のコストをモデル化するものだと考えています。
論文 参考訳(メタデータ) (2021-11-25T02:03:52Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - The State of Lifelong Learning in Service Robots: Current Bottlenecks in
Object Perception and Manipulation [3.7858180627124463]
State-of-the-artは、オブジェクトの知覚と操作を適切に結合するように改善を続けている。
ほとんどの場合、ロボットは様々な物体を認識でき、衝突のない軌道を素早く計画して対象物を把握できる。
このような環境下では、バッチ学習に使用するトレーニングデータがどれほど広範囲であっても、ロボットは常に新しいオブジェクトに直面する。
ロボットの自己学習とは別に、専門家でないユーザは、体験獲得のプロセスを対話的にガイドできる。
論文 参考訳(メタデータ) (2020-03-18T11:00:55Z) - A Survey of Behavior Learning Applications in Robotics -- State of the Art and Perspectives [44.45953630612019]
最近の多くの領域での機械学習の成功は圧倒的に多い。
実際のロボットで学んだり使ったりした行動について、幅広い概要を述べます。
論文 参考訳(メタデータ) (2019-06-05T07:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。