論文の概要: Learning robot motor skills with mixed reality
- arxiv url: http://arxiv.org/abs/2203.11324v1
- Date: Mon, 21 Mar 2022 20:25:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 11:25:27.658547
- Title: Learning robot motor skills with mixed reality
- Title(参考訳): 複合現実感を用いたロボットモータースキルの学習
- Authors: Eric Rosen, Sreehari Rammohan, Devesh Jha
- Abstract要約: 最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
エンドユーザーがロボットにa)動作デモ、b)タスク制約、c)計画表現、d)オブジェクト情報を教える学習フレームワークを提案する。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であり、サンプリング効率の良いモータースキル学習フレームワークによってロボットが複雑なタスクを効果的に解くことができると仮定する。
- 参考スコア(独自算出の注目度): 0.8121462458089141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixed Reality (MR) has recently shown great success as an intuitive interface
for enabling end-users to teach robots. Related works have used MR interfaces
to communicate robot intents and beliefs to a co-located human, as well as
developed algorithms for taking multi-modal human input and learning complex
motor behaviors. Even with these successes, enabling end-users to teach robots
complex motor tasks still poses a challenge because end-user communication is
highly task dependent and world knowledge is highly varied. We propose a
learning framework where end-users teach robots a) motion demonstrations, b)
task constraints, c) planning representations, and d) object information, all
of which are integrated into a single motor skill learning framework based on
Dynamic Movement Primitives (DMPs). We hypothesize that conveying this world
knowledge will be intuitive with an MR interface, and that a sample-efficient
motor skill learning framework which incorporates varied modalities of world
knowledge will enable robots to effectively solve complex tasks.
- Abstract(参考訳): 最近MR(Mixed Reality)は、エンドユーザがロボットを教えるための直感的なインターフェースとして大きな成功を収めた。
関連した研究は、MRインタフェースを使用して、ロボットの意図や信念を同じ場所にいる人間に伝達し、マルチモーダルな人間の入力と複雑な運動行動の学習のためのアルゴリズムを開発した。
これらの成功にもかかわらず、エンドユーザーが複雑な運動タスクをロボットに教えることを可能にすることは、エンドユーザーコミュニケーションがタスク依存度が高く、世界知識が多様であるため、依然として課題となっている。
エンドユーザーがロボットに教える学習フレームワークを提案する。
a) 運動のデモ
b) 業務上の制約
c) 表象の計画,及び
d) 対象情報はすべて,ダイナミックムーブメントプリミティブ(dmps)に基づく単一の運動スキル学習フレームワークに統合される。
我々は、この世界の知識を伝達することはMRインタフェースで直感的であると仮定し、世界の知識の多様さを取り入れたサンプリング効率の良い運動スキル学習フレームワークにより、ロボットが複雑なタスクを効果的に解決できると仮定する。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - SPIRE: Synergistic Planning, Imitation, and Reinforcement Learning for Long-Horizon Manipulation [58.14969377419633]
タスクをより小さな学習サブプロブレムに分解し、第2に模倣と強化学習を組み合わせてその強みを最大化するシステムであるspireを提案する。
我々は、模倣学習、強化学習、計画を統合する従来の手法よりも平均タスク性能が35%から50%向上していることを発見した。
論文 参考訳(メタデータ) (2024-10-23T17:42:07Z) - Generalized Robot Learning Framework [10.03174544844559]
本稿では,様々なロボットや環境に容易に再現可能かつ伝達可能な,低コストなロボット学習フレームワークを提案する。
我々は,産業用ロボットにおいても,デプロイ可能な模倣学習をうまく適用できることを実証した。
論文 参考訳(メタデータ) (2024-09-18T15:34:31Z) - Continual Skill and Task Learning via Dialogue [3.3511259017219297]
連続的かつ対話的なロボット学習は、ロボットが人間のユーザーと一緒にいるため、難しい問題である。
本稿では,人間との対話を通じて,ロボットがロボットのスキルを質問し,学習し,関連する情報を処理するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-05T01:51:54Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Incremental Learning of Humanoid Robot Behavior from Natural Interaction and Large Language Models [23.945922720555146]
本研究では,自然相互作用から複雑な行動の漸進的な学習を実現するシステムを提案する。
本システムは,ヒューマノイドロボットARMAR-6のロボット認知アーキテクチャに組み込まれている。
論文 参考訳(メタデータ) (2023-09-08T13:29:05Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Learning and Reasoning for Robot Dialog and Navigation Tasks [44.364322669414776]
我々は,強化学習と確率論的推論手法の相補的長所を考察しながら,ロボットタスク完了のためのアルゴリズムを開発した。
ロボットは試行錯誤の経験から学習し、宣言的な知識ベースを強化する。
我々は,ダイアログとナビゲーションタスクを実行する移動ロボットを用いて,開発したアルゴリズムを実装し,評価した。
論文 参考訳(メタデータ) (2020-05-20T03:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。