論文の概要: Wearable camera-based human absolute localization in large warehouses
- arxiv url: http://arxiv.org/abs/2007.10066v1
- Date: Mon, 20 Jul 2020 12:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:57:07.234589
- Title: Wearable camera-based human absolute localization in large warehouses
- Title(参考訳): 大型倉庫におけるウェアラブルカメラによる人間絶対位置推定
- Authors: Ga\"el \'Ecorchard and Karel Ko\v{s}nar and Libor P\v{r}eu\v{c}il
- Abstract要約: 本稿では,大規模倉庫を対象としたウェアラブル型人的位置決めシステムについて紹介する。
単眼のダウンルックカメラは、地上のノードを検出し、それらを識別し、人間の絶対位置を計算する。
人間の操作者周辺の仮想安全エリアが設定され、この領域内のAGVは直ちに停止される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a robotised warehouse, as in any place where robots move autonomously, a
major issue is the localization or detection of human operators during their
intervention in the work area of the robots. This paper introduces a wearable
human localization system for large warehouses, which utilize preinstalled
infrastructure used for localization of automated guided vehicles (AGVs). A
monocular down-looking camera is detecting ground nodes, identifying them and
computing the absolute position of the human to allow safe cooperation and
coexistence of humans and AGVs in the same workspace. A virtual safety area
around the human operator is set up and any AGV in this area is immediately
stopped. In order to avoid triggering an emergency stop because of the short
distance between robots and human operators, the trajectories of the robots
have to be modified so that they do not interfere with the human. The purpose
of this paper is to demonstrate an absolute visual localization method working
in the challenging environment of an automated warehouse with low intensity of
light, massively changing environment and using solely monocular camera placed
on the human body.
- Abstract(参考訳): ロボット化された倉庫では、ロボットが自律的に動く場所において、ロボットの作業領域に介入する際、人間のオペレーターの位置や検出が大きな問題となる。
本稿では、自動誘導車両(AGV)のローカライズに使用するプリインストールされたインフラを利用する大型倉庫用ウェアラブル人体ローカライズシステムを提案する。
単眼のダウンルックカメラは、地上ノードを検出し、それらを識別し、人間の絶対位置を計算し、同じワークスペースにおける人間とagvの安全な協力と共存を可能にする。
人間の操作者周辺の仮想安全エリアが設定され、この領域内のAGVは直ちに停止される。
ロボットとオペレーターの間の距離が短いために緊急停止を引き起こすのを避けるために、ロボットの軌道が人間に干渉しないように修正する必要がある。
本研究の目的は,光の強度が低く,環境が大きく変化する自動倉庫において,人体に設置した単眼カメラのみを用いた絶対的な視覚的位置決め方式を実証することである。
関連論文リスト
- Near Real-Time Position Tracking for Robot-Guided Evacuation [0.0]
本稿では,避難ロボットに適したリアルタイムに近い人体位置追跡ソリューションを提案する。
地上の真理と比較して0.55mの精度が得られることを示す。
われわれのアプローチのポテンシャルは単なる追跡以上のものとなり、回避運動予測への道を開いた。
論文 参考訳(メタデータ) (2023-09-26T16:34:18Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - Vision-Based Safety System for Barrierless Human-Robot Collaboration [0.0]
本稿では,速度分離監視(SSM)方式の安全システムを提案する。
ディープラーニングに基づくコンピュータビジョンシステムは、ロボットに近いオペレータの3D位置を検出し、追跡し、推定する。
人間とロボットが相互作用する3つの異なる操作モードが提示される。
論文 参考訳(メタデータ) (2022-08-03T12:31:03Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Tethered Aerial Visual Assistance [5.237054164442403]
無人有人無人航空機(UAV)は、有人ロボットチームで視覚アシスタントとして開発されている。
基本的視点品質理論、形式的リスク推論フレームワーク、および新たに開発されたテザリングモーションスイートを用いて、視覚アシスタントは、高品質な視点に自律的にナビゲートすることができる。
開発された有人ロボットチームは、核作戦、爆弾部隊、災害ロボット、その他の領域での遠隔操作効率を向上させることができる。
論文 参考訳(メタデータ) (2020-01-15T06:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。