論文の概要: Vision-Based Safety System for Barrierless Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2208.02010v1
- Date: Wed, 3 Aug 2022 12:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:26:33.818593
- Title: Vision-Based Safety System for Barrierless Human-Robot Collaboration
- Title(参考訳): バリアレスロボットコラボレーションのための視覚ベース安全システム
- Authors: Lina Mar\'ia Amaya-Mej\'ia, Nicol\'as Duque-Su\'arez, Daniel
Jaramillo-Ram\'irez, Carol Martinez
- Abstract要約: 本稿では,速度分離監視(SSM)方式の安全システムを提案する。
ディープラーニングに基づくコンピュータビジョンシステムは、ロボットに近いオペレータの3D位置を検出し、追跡し、推定する。
人間とロボットが相互作用する3つの異なる操作モードが提示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human safety has always been the main priority when working near an
industrial robot. With the rise of Human-Robot Collaborative environments,
physical barriers to avoiding collisions have been disappearing, increasing the
risk of accidents and the need for solutions that ensure a safe Human-Robot
Collaboration. This paper proposes a safety system that implements Speed and
Separation Monitoring (SSM) type of operation. For this, safety zones are
defined in the robot's workspace following current standards for industrial
collaborative robots. A deep learning-based computer vision system detects,
tracks, and estimates the 3D position of operators close to the robot. The
robot control system receives the operator's 3D position and generates 3D
representations of them in a simulation environment. Depending on the zone
where the closest operator was detected, the robot stops or changes its
operating speed. Three different operation modes in which the human and robot
interact are presented. Results show that the vision-based system can correctly
detect and classify in which safety zone an operator is located and that the
different proposed operation modes ensure that the robot's reaction and stop
time are within the required time limits to guarantee safety.
- Abstract(参考訳): 産業用ロボットの近くで作業する場合、人間の安全が最優先事項だった。
人間-ロボット協調環境の台頭により、衝突を避ける物理的障壁は消失し、事故のリスクが増大し、安全な人間-ロボット協調を保証するソリューションの必要性が高まった。
本稿では,ssm(speed and separation monitoring)方式の運転を行う安全システムを提案する。
このため、安全ゾーンは、産業協力ロボットの現在の標準に従って、ロボットのワークスペース内で定義される。
ディープラーニングに基づくコンピュータビジョンシステムは、ロボットに近いオペレータの3D位置を検出し、追跡し、推定する。
ロボット制御システムは、オペレータの3D位置を受信し、シミュレーション環境でそれらの3D表現を生成する。
最寄りの操作者が検出されたゾーンに応じて、ロボットは動作速度を停止または変更する。
人間とロボットが相互作用する3つの異なる操作モードが提示される。
その結果,視覚ベースのシステムでは,オペレータが位置する安全領域を正しく検出し分類でき,異なる動作モードにより,ロボットの反応と停止時間が安全を保証するために必要な時間範囲内であることを保証できることがわかった。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - ABNet: Attention BarrierNet for Safe and Scalable Robot Learning [58.4951884593569]
バリアベースの手法は、安全なロボット学習における主要なアプローチの1つである。
本稿では,より大規模な基本安全モデルを段階的に構築するスケーラブルなAttention BarrierNet(ABNet)を提案する。
2次元ロボット障害物回避、安全なロボット操作、視覚に基づくエンドツーエンド自動運転におけるABNetの強みを実証する。
論文 参考訳(メタデータ) (2024-06-18T19:37:44Z) - Motion Prediction with Gaussian Processes for Safe Human-Robot Interaction in Virtual Environments [1.677718351174347]
衝突事故のリスクを最小限に抑えるため、共同作業型ロボットは人間との共同作業が安全でなければならない。
本研究の目的は,協調作業ロボットの安全性を向上しつつ,協調作業ロボットの効率を向上させることである。
論文 参考訳(メタデータ) (2024-05-15T05:51:41Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z) - Wearable camera-based human absolute localization in large warehouses [0.0]
本稿では,大規模倉庫を対象としたウェアラブル型人的位置決めシステムについて紹介する。
単眼のダウンルックカメラは、地上のノードを検出し、それらを識別し、人間の絶対位置を計算する。
人間の操作者周辺の仮想安全エリアが設定され、この領域内のAGVは直ちに停止される。
論文 参考訳(メタデータ) (2020-07-20T12:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。