論文の概要: Improving safety in physical human-robot collaboration via deep metric
learning
- arxiv url: http://arxiv.org/abs/2302.11933v2
- Date: Thu, 13 Apr 2023 10:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 20:14:46.476077
- Title: Improving safety in physical human-robot collaboration via deep metric
learning
- Title(参考訳): ディープメトリック学習による身体的ロボットコラボレーションの安全性向上
- Authors: Maryam Rezayati, Grammatiki Zanni, Ying Zaoshi, Davide Scaramuzza,
Hans Wernher van de Venn
- Abstract要約: 柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
- 参考スコア(独自算出の注目度): 36.28667896565093
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Direct physical interaction with robots is becoming increasingly important in
flexible production scenarios, but robots without protective fences also pose a
greater risk to the operator. In order to keep the risk potential low,
relatively simple measures are prescribed for operation, such as stopping the
robot if there is physical contact or if a safety distance is violated.
Although human injuries can be largely avoided in this way, all such solutions
have in common that real cooperation between humans and robots is hardly
possible and therefore the advantages of working with such systems cannot
develop its full potential. In human-robot collaboration scenarios, more
sophisticated solutions are required that make it possible to adapt the robot's
behavior to the operator and/or the current situation. Most importantly, during
free robot movement, physical contact must be allowed for meaningful
interaction and not recognized as a collision. However, here lies a key
challenge for future systems: detecting human contact by using robot
proprioception and machine learning algorithms. This work uses the Deep Metric
Learning (DML) approach to distinguish between non-contact robot movement,
intentional contact aimed at physical human-robot interaction, and collision
situations. The achieved results are promising and show show that DML achieves
98.6\% accuracy, which is 4\% higher than the existing standards (i.e. a deep
learning network trained without DML). It also indicates a promising
generalization capability for easy portability to other robots (target robots)
by detecting contact (distinguishing between contactless and intentional or
accidental contact) without having to retrain the model with target robot data.
- Abstract(参考訳): ロボットとの直接の物理的相互作用は、フレキシブルな生産シナリオではますます重要になっているが、保護フェンスのないロボットもまた、オペレーターにとって大きなリスクをもたらす。
リスク電位を低く抑えるために、物理的な接触があった場合や安全距離に違反した場合など、比較的簡単な操作方法が定められている。
人間のケガは概ね避けられるが、人間とロボットの真の協力は不可能であり、このようなシステムで作業する利点は、その可能性を最大限に発揮できないという共通点がある。
ヒトとロボットの協調シナリオでは、ロボットの動作をオペレーターや現在の状況に適応させる、より洗練されたソリューションが必要である。
最も重要なことは、自由ロボット運動の間、物理的接触は意味のある相互作用を許容し、衝突として認識されないことである。
しかし、今後のシステムにとって重要な課題は、ロボットのプロプリセプションと機械学習アルゴリズムを使って人間の接触を検出することだ。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
得られた結果は有望であり、DMLが98.6\%の精度を達成していることを示し、これは既存の標準(DMLなしで訓練されたディープラーニングネットワーク)よりも4\%高い。
また、対象ロボットデータでモデルを再訓練することなく接触(非接触・意図的・偶発的接触の識別)を検出することにより、他のロボット(ターゲットロボット)に容易に移植できる有望な一般化能力を示す。
関連論文リスト
- InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - CoGrasp: 6-DoF Grasp Generation for Human-Robot Collaboration [0.0]
そこで我々は,人間を意識したロボットグリップを生成する,CoGraspと呼ばれる新しいディープニューラルネットワーク方式を提案する。
実際のロボット実験では,安定グリップの生成において約88%の成功率を達成した。
我々のアプローチは、安全で自然で社会的に認識された人間ロボットオブジェクトのコグラスピング体験を可能にします。
論文 参考訳(メタデータ) (2022-10-06T19:23:25Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。