論文の概要: Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control
- arxiv url: http://arxiv.org/abs/2212.01434v1
- Date: Fri, 2 Dec 2022 20:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:19:58.427531
- Title: Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control
- Title(参考訳): 模倣学習と力制御を用いた汎用ロボット協調アセンブリ
- Authors: Devesh K. Jha, Siddarth Jain, Diego Romeres, William Yerazunis and
Daniel Nikovski
- Abstract要約: 本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
- 参考スコア(独自算出の注目度): 17.270360447188196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots have been steadily increasing their presence in our daily lives, where
they can work along with humans to provide assistance in various tasks on
industry floors, in offices, and in homes. Automated assembly is one of the key
applications of robots, and the next generation assembly systems could become
much more efficient by creating collaborative human-robot systems. However,
although collaborative robots have been around for decades, their application
in truly collaborative systems has been limited. This is because a truly
collaborative human-robot system needs to adjust its operation with respect to
the uncertainty and imprecision in human actions, ensure safety during
interaction, etc. In this paper, we present a system for human-robot
collaborative assembly using learning from demonstration and pose estimation,
so that the robot can adapt to the uncertainty caused by the operation of
humans. Learning from demonstration is used to generate motion trajectories for
the robot based on the pose estimate of different goal locations from a deep
learning-based vision system. The proposed system is demonstrated using a
physical 6 DoF manipulator in a collaborative human-robot assembly scenario. We
show successful generalization of the system's operation to changes in the
initial and final goal locations through various experiments.
- Abstract(参考訳): ロボットは私たちの日常生活におけるプレゼンスを着実に増加させており、そこでは人間と一緒に働き、産業用フロア、オフィス、そして家庭で様々なタスクをこなすことができる。
自動組立はロボットの重要な応用の1つであり、次世代の組立システムは協調的な人間-ロボットシステムを作ることでより効率的になるかもしれない。
しかし、コラボレーティブロボットは数十年前から存在するが、真のコラボレーティブシステムへの応用は限られている。
これは、人間の行動の不確実性や不正確性、相互作用中の安全性の確保などに関して、真に協調的な人間ロボットシステムが操作を調整する必要があるためである。
本稿では,ロボットが人間の操作によって生じる不確実性に適応できるように,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
デモからの学習は、深層学習に基づく視覚システムから異なる目標地点のポーズ推定に基づいて、ロボットの動き軌跡を生成するために使用される。
提案システムは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実証する。
実験により,初期および最終目標位置の変化に対するシステムの動作の一般化に成功したことを示す。
関連論文リスト
- HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams [0.0]
メタ認知,自然言語コミュニケーション,説明可能性を備えたロボットチームにおいて,ロボットの認知戦略を実証する。
このシステムは、認知と制御機能を柔軟に統合するHARMONICアーキテクチャを使って実現されている。
論文 参考訳(メタデータ) (2024-09-26T16:48:21Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。