論文の概要: Safe Multimodal Communication in Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2308.03690v1
- Date: Mon, 7 Aug 2023 16:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 12:54:22.815674
- Title: Safe Multimodal Communication in Human-Robot Collaboration
- Title(参考訳): 人間-ロボットコラボレーションにおける安全なマルチモーダルコミュニケーション
- Authors: Davide Ferrari, Andrea Pupa, Alberto Signoretti, Cristian Secchi
- Abstract要約: 音声コマンドとジェスチャーコマンドのマルチモーダル融合を利用して,人間とロボット間のマルチチャネル通信を実現するフレームワークを提案する。
このフレームワークは比較実験を通じて検証され、マルチモーダル通信のおかげで、ロボットは必要なタスクを実行するための貴重な情報を抽出できることを示した。
- 参考スコア(独自算出の注目度): 12.688356318251763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The new industrial settings are characterized by the presence of human and
robots that work in close proximity, cooperating in performing the required
job. Such a collaboration, however, requires to pay attention to many aspects.
Firstly, it is crucial to enable a communication between this two actors that
is natural and efficient. Secondly, the robot behavior must always be compliant
with the safety regulations, ensuring always a safe collaboration. In this
paper, we propose a framework that enables multi-channel communication between
humans and robots by leveraging multimodal fusion of voice and gesture commands
while always respecting safety regulations. The framework is validated through
a comparative experiment, demonstrating that, thanks to multimodal
communication, the robot can extract valuable information for performing the
required task and additionally, with the safety layer, the robot can scale its
speed to ensure the operator's safety.
- Abstract(参考訳): 新しい産業環境は、人間とロボットが近くで働き、必要な仕事の遂行に協力することによって特徴づけられる。
しかし、このようなコラボレーションには多くの側面に注意を払う必要があります。
まず、自然で効率的な2つのアクター間のコミュニケーションを可能にすることが重要です。
第二に、ロボットの動作は常に安全規則に準拠していなければならない。
本稿では,安全規則を常に尊重しつつ,音声とジェスチャーのマルチモーダル融合を活用し,人間とロボットのマルチチャネル通信を可能にする枠組みを提案する。
このフレームワークは比較実験を通じて検証され、マルチモーダル通信により、ロボットは必要なタスクを実行するための貴重な情報を取り出すことができ、さらに安全層により、ロボットはその速度を拡大してオペレーターの安全を確保することができることを示した。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Safety Control of Service Robots with LLMs and Embodied Knowledge Graphs [12.787160626087744]
本稿では,大規模言語モデルとERCP(Embodied Robotic Control Prompts)とEKG(Embodied Knowledge Graphs)との新たな統合を提案する。
ERCPは、LLMが安全かつ正確な応答を生成するための事前定義された命令として設計されている。
EKGは、ロボットの動作が安全プロトコルと継続的に一致していることを保証する包括的な知識基盤を提供する。
論文 参考訳(メタデータ) (2024-05-28T05:50:25Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Proactive Human-Robot Co-Assembly: Leveraging Human Intention Prediction
and Robust Safe Control [10.973115127845224]
本稿では,プロアクティブなロボット協調のための統合フレームワークを提案する。
頑健な意図予測モジュールが学習され、ロボットに効率的な協調を誘導する。
開発したフレームワークは,Kinova Gen3ロボットを用いた協調作業に適用される。
論文 参考訳(メタデータ) (2023-06-20T19:42:30Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - SERA: Safe and Efficient Reactive Obstacle Avoidance for Collaborative
Robotic Planning in Unstructured Environments [1.5229257192293197]
本稿では,リアクティブな全身障害物回避手法を提案する。
ロボットアームは、直接接触することなく、任意の3次元形状の障害物を積極的に回避することができる。
本手法は,非定常環境における安全ロボット協調のための堅牢で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2022-03-24T21:11:43Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Learning Multi-Arm Manipulation Through Collaborative Teleoperation [63.35924708783826]
模倣学習(il)はロボットに操作タスクを実行するための強力なパラダイムである。
多くの現実世界のタスクは、重い物体を持ち上げる、デスクを組み立てるなど、複数のアームを必要とする。
複数のリモートユーザが同時にロボットアームを遠隔操作できるマルチユーザデータ収集プラットフォームであるMulti-Arm RoboTurk(MART)を紹介した。
論文 参考訳(メタデータ) (2020-12-12T05:43:43Z) - With Whom to Communicate: Learning Efficient Communication for
Multi-Robot Collision Avoidance [17.18628401523662]
本稿では,複数ロボット衝突回避シナリオにおいて,「いつ」と「誰」がコミュニケーションを行うのかという課題を解決するための効率的な通信手法を提案する。
このアプローチでは、全てのロボットが他のロボットの状態について推論することを学び、他のロボットの軌道計画を求める前に将来の衝突のリスクを考える。
論文 参考訳(メタデータ) (2020-09-25T09:49:22Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。