論文の概要: Continual Skill and Task Learning via Dialogue
- arxiv url: http://arxiv.org/abs/2409.03166v1
- Date: Thu, 5 Sep 2024 01:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 22:33:03.234358
- Title: Continual Skill and Task Learning via Dialogue
- Title(参考訳): 対話による連続的スキルとタスク学習
- Authors: Weiwei Gu, Suresh Kondepudi, Lixiao Huang, Nakul Gopalan,
- Abstract要約: 連続的かつ対話的なロボット学習は、ロボットが人間のユーザーと一緒にいるため、難しい問題である。
本稿では,人間との対話を通じて,ロボットがロボットのスキルを質問し,学習し,関連する情報を処理するためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.3511259017219297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual and interactive robot learning is a challenging problem as the robot is present with human users who expect the robot to learn novel skills to solve novel tasks perpetually with sample efficiency. In this work we present a framework for robots to query and learn visuo-motor robot skills and task relevant information via natural language dialog interactions with human users. Previous approaches either focus on improving the performance of instruction following agents, or passively learn novel skills or concepts. Instead, we used dialog combined with a language-skill grounding embedding to query or confirm skills and/or tasks requested by a user. To achieve this goal, we developed and integrated three different components for our agent. Firstly, we propose a novel visual-motor control policy ACT with Low Rank Adaptation (ACT-LoRA), which enables the existing SoTA ACT model to perform few-shot continual learning. Secondly, we develop an alignment model that projects demonstrations across skill embodiments into a shared embedding allowing us to know when to ask questions and/or demonstrations from users. Finally, we integrated an existing LLM to interact with a human user to perform grounded interactive continual skill learning to solve a task. Our ACT-LoRA model learns novel fine-tuned skills with a 100% accuracy when trained with only five demonstrations for a novel skill while still maintaining a 74.75% accuracy on pre-trained skills in the RLBench dataset where other models fall significantly short. We also performed a human-subjects study with 8 subjects to demonstrate the continual learning capabilities of our combined framework. We achieve a success rate of 75% in the task of sandwich making with the real robot learning from participant data demonstrating that robots can learn novel skills or task knowledge from dialogue with non-expert users using our approach.
- Abstract(参考訳): ロボットが新しいスキルを習得し、サンプル効率で新しいタスクを恒久的に解くことを期待する人間にロボットが存在しているため、連続的かつ対話的なロボット学習は難しい問題である。
本研究では,人間との対話を通じて,ロボットがロボットのスキルとタスク関連情報をクエリし,学習するためのフレームワークを提案する。
従来のアプローチでは、エージェントに従う命令のパフォーマンスを改善することに注力するか、新しいスキルやコンセプトを受動的に学習する。
代わりに、ダイアログと言語スキルの接地埋め込みを組み合わせて、ユーザが要求するスキルやタスクをクエリしたり、確認したりしました。
この目的を達成するために,エージェントのための3つの異なるコンポーネントを開発し,統合した。
まず,既存の SoTA ACT モデルで数発の連続学習が可能となる,低ランク適応型視覚運動制御 ACT (ACT-LoRA) を提案する。
第2に,ユーザからの質問やデモをいつ行うかを知るために,スキルの具体化を越えて,共有埋め込みにデモを投影するアライメントモデルを開発する。
最後に,既存のLLMを統合し,人間のユーザと対話し,タスクを解くための対話型連続的スキル学習を行う。
我々のACT-LoRAモデルは、RLBenchデータセットにおいて、トレーニング済みスキルの74.75%の精度を維持しながら、新しいスキルの5つのデモでトレーニングされた場合に、100%の精度で新しい微調整スキルを学習する。
また,本フレームワークの連続学習能力を実証するため,被験者8名を対象に人体実験を行った。
本研究では,本手法を用いて非熟練ユーザとの対話から,ロボットが新しいスキルやタスク知識を学習できることを実証した参加者データから,実際のロボットによるサンドイッチ作成作業において,75%の成功率を達成する。
関連論文リスト
- Vocal Sandbox: Continual Learning and Adaptation for Situated Human-Robot Collaboration [64.6107798750142]
Vocal Sandboxは、位置のある環境でシームレスな人間とロボットのコラボレーションを可能にするフレームワークである。
我々は,ロボットの能力に対する理解と協調をリアルタイムで構築できる軽量で解釈可能な学習アルゴリズムを設計する。
我々はVocal Sandboxを,コラボレーションギフトバッグアセンブリとLEGOストップモーションアニメーションの2つの設定で評価した。
論文 参考訳(メタデータ) (2024-11-04T20:44:40Z) - SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Unsupervised Skill Discovery for Robotic Manipulation through Automatic Task Generation [17.222197596599685]
本稿では,多数の自律的タスクを解くことで構成可能な振る舞いを発見するスキル学習手法を提案する。
本手法は,ロボットが環境内の物体と連続的かつ堅牢に対話することを可能にするスキルを学習する。
学習したスキルは、シミュレーションだけでなく、本物のロボットプラットフォーム上でも、目に見えない操作タスクのセットを解決するために使用できる。
論文 参考訳(メタデータ) (2024-10-07T09:19:13Z) - SECURE: Semantics-aware Embodied Conversation under Unawareness for Lifelong Robot Learning [17.125080112897102]
本稿では,ロボットが指示されたタスクを解く上で鍵となる概念を知らない,困難な対話型タスク学習シナリオについて論じる。
本稿では,このような問題を解決するための対話型タスク学習フレームワークSECUREを提案する。
SECUREを用いて、ロボットはミスをしたときのユーザの補正フィードバックから学習するだけでなく、指示されたタスクを解決するための新しい概念に関する有用な証拠を明らかにするための戦略的対話決定も行う。
論文 参考訳(メタデータ) (2024-09-26T11:40:07Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Learning and Reasoning for Robot Dialog and Navigation Tasks [44.364322669414776]
我々は,強化学習と確率論的推論手法の相補的長所を考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学習し、宣言的な知識ベースを強化する。
我々は,ダイアログとナビゲーションタスクを実行する移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
論文 参考訳(メタデータ) (2020-05-20T03:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。