論文の概要: Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2103.04077v1
- Date: Sat, 6 Mar 2021 09:14:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:26:13.874521
- Title: Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration
- Title(参考訳): 人間とロボットのコラボレーションのための到達可能なワークスペースにおけるキャパシティキャリブレーション
- Authors: Xiaofeng Gao, Luyao Yuan, Tianmin Shu, Hongjing Lu, Song-Chun Zhu
- Abstract要約: 本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
- 参考スコア(独自算出の注目度): 83.4081612443128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aligning humans' assessment of what a robot can do with its true capability
is crucial for establishing a common ground between human and robot partners
when they collaborate on a joint task. In this work, we propose an approach to
calibrate humans' estimate of a robot's reachable workspace through a small
number of demonstrations before collaboration. We develop a novel motion
planning method, REMP (Reachability-Expressive Motion Planning), which jointly
optimizes the physical cost and the expressiveness of robot motion to reveal
the robot's motion capability to a human observer. Our experiments with human
participants demonstrate that a short calibration using REMP can effectively
bridge the gap between what a non-expert user thinks a robot can reach and the
ground-truth. We show that this calibration procedure not only results in
better user perception, but also promotes more efficient human-robot
collaborations in a subsequent joint task.
- Abstract(参考訳): ロボットが真の能力でできることを人間の評価に合わせることは、共同作業で共同作業を行うとき、人間とロボットのパートナーの間で共通の基盤を確立するために不可欠です。
本研究では,ロボットの到達可能な作業空間に対する人間の推定を,コラボレーション前に少数のデモンストレーションを通じて校正する手法を提案する。
ロボットの運動能力を明らかにするために、ロボット動作の物理的コストと表現力を共同最適化する新しい運動計画手法であるREMP(Reachability-Expressive Motion Planning)を開発しています。
実験では,rempを用いた短時間のキャリブレーションが,非熟練者がロボットが到達できると考えるものと地対面との間のギャップを効果的に橋渡しできることを実証した。
この校正手順は,ユーザ認識の向上だけでなく,その後の共同作業において,より効率的な人間とロボットのコラボレーションを促進することも示している。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。