論文の概要: Learning robot motor skills with mixed reality
- arxiv url: http://arxiv.org/abs/2203.11324v1
- Date: Mon, 21 Mar 2022 20:25:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 11:25:27.658547
- Title: Learning robot motor skills with mixed reality
- Title(参考訳): 複合現実感を用いたロボットモータースキルの学習
- Authors: Eric Rosen, Sreehari Rammohan, Devesh Jha
- Abstract要約: 最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
エンドユーザーがロボットにa)動作デモ、b)タスク制約、c)計画表現、d)オブジェクト情報を教える学習フレームワークを提案する。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であり、サンプリング効率の良いモータースキル学習フレームワークによってロボットが複雑なタスクを効果的に解くことができると仮定する。
- 参考スコア(独自算出の注目度): 0.8121462458089141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixed Reality (MR) has recently shown great success as an intuitive interface
for enabling end-users to teach robots. Related works have used MR interfaces
to communicate robot intents and beliefs to a co-located human, as well as
developed algorithms for taking multi-modal human input and learning complex
motor behaviors. Even with these successes, enabling end-users to teach robots
complex motor tasks still poses a challenge because end-user communication is
highly task dependent and world knowledge is highly varied. We propose a
learning framework where end-users teach robots a) motion demonstrations, b)
task constraints, c) planning representations, and d) object information, all
of which are integrated into a single motor skill learning framework based on
Dynamic Movement Primitives (DMPs). We hypothesize that conveying this world
knowledge will be intuitive with an MR interface, and that a sample-efficient
motor skill learning framework which incorporates varied modalities of world
knowledge will enable robots to effectively solve complex tasks.
- Abstract(参考訳): 最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
関連した研究は、MRインタフェースを使用して、ロボットの意図や信念を同じ場所にいる人間に伝達し、マルチモーダルな人間の入力と複雑な運動行動の学習のためのアルゴリズムを開発した。
これらの成功にもかかわらず、エンドユーザーが複雑な運動タスクをロボットに教えることを可能にすることは、エンドユーザーコミュニケーションがタスク依存度が高く、世界知識が多様であるため、依然として課題となっている。
エンドユーザーがロボットに教える学習フレームワークを提案する。
a) 運動のデモ
b) 業務上の制約
c) 表象の計画,及び
d) 対象情報はすべて,ダイナミックムーブメントプリミティブ(dmps)に基づく単一の運動スキル学習フレームワークに統合される。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であると仮定し、世界の知識の多様さを取り入れたサンプリング効率の良い運動スキル学習フレームワークにより、ロボットが複雑なタスクを効果的に解決できると仮定する。
関連論文リスト
- Large Language Models for Robotics: A Survey [40.76581696885846]
大規模言語モデル(LLM)は自然言語の処理と生成能力を有しており、ロボットとの効率的な対話と協調を促進する。
本レビューは,ロボット制御,知覚,意思決定,経路計画といった重要な領域に対する,ロボット工学におけるLLMの応用と貢献を要約することを目的としている。
論文 参考訳(メタデータ) (2023-11-13T10:46:35Z) - Incremental Learning of Humanoid Robot Behavior from Natural Interaction
and Large Language Models [13.350695714201555]
本研究では,自然相互作用から複雑な行動の漸進的な学習を実現するシステムを提案する。
本システムは,ヒューマノイドロボットARMAR-6のロボット認知アーキテクチャに組み込まれている。
論文 参考訳(メタデータ) (2023-09-08T13:29:05Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - LLM as A Robotic Brain: Unifying Egocentric Memory and Control [77.0899374628474]
Embodied AIは、物理的または仮想的なエンボディメント(つまりロボット)を持つインテリジェントシステムの研究と開発に焦点を当てている。
メモリとコントロールは、具体化されたシステムの2つの不可欠な部分であり、通常、それぞれをモデル化するために別々のフレームワークを必要とします。
ロボット脳として大規模言語モデルを用いて,エゴセントリックな記憶と制御を統一するLLM-Brainという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-19T00:08:48Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Learning and Reasoning for Robot Dialog and Navigation Tasks [44.364322669414776]
我々は,強化学習と確率論的推論手法の相補的長所を考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学習し、宣言的な知識ベースを強化する。
我々は,ダイアログとナビゲーションタスクを実行する移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
論文 参考訳(メタデータ) (2020-05-20T03:20:42Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。