論文の概要: Wearable camera-based human absolute localization in large warehouses
- arxiv url: http://arxiv.org/abs/2007.10066v1
- Date: Mon, 20 Jul 2020 12:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:57:07.234589
- Title: Wearable camera-based human absolute localization in large warehouses
- Title(参考訳): 大型倉庫におけるウェアラブルカメラによる人間絶対位置推定
- Authors: Ga\"el \'Ecorchard and Karel Ko\v{s}nar and Libor P\v{r}eu\v{c}il
- Abstract要約: 本稿では,大規模倉庫を対象としたウェアラブル型人的位置決めシステムについて紹介する。
単眼のダウンルックカメラは、地上のノードを検出し、それらを識別し、人間の絶対位置を計算する。
人間の操作者周辺の仮想安全エリアが設定され、この領域内のAGVは直ちに停止される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a robotised warehouse, as in any place where robots move autonomously, a
major issue is the localization or detection of human operators during their
intervention in the work area of the robots. This paper introduces a wearable
human localization system for large warehouses, which utilize preinstalled
infrastructure used for localization of automated guided vehicles (AGVs). A
monocular down-looking camera is detecting ground nodes, identifying them and
computing the absolute position of the human to allow safe cooperation and
coexistence of humans and AGVs in the same workspace. A virtual safety area
around the human operator is set up and any AGV in this area is immediately
stopped. In order to avoid triggering an emergency stop because of the short
distance between robots and human operators, the trajectories of the robots
have to be modified so that they do not interfere with the human. The purpose
of this paper is to demonstrate an absolute visual localization method working
in the challenging environment of an automated warehouse with low intensity of
light, massively changing environment and using solely monocular camera placed
on the human body.
- Abstract(参考訳): ロボット化された倉庫では、ロボットが自律的に動く場所において、ロボットの作業領域に介入する際、人間のオペレーターの位置や検出が大きな問題となる。
本稿では、自動誘導車両(AGV)のローカライズに使用するプリインストールされたインフラを利用する大型倉庫用ウェアラブル人体ローカライズシステムを提案する。
単眼のダウンルックカメラは、地上ノードを検出し、それらを識別し、人間の絶対位置を計算し、同じワークスペースにおける人間とagvの安全な協力と共存を可能にする。
人間の操作者周辺の仮想安全エリアが設定され、この領域内のAGVは直ちに停止される。
ロボットとオペレーターの間の距離が短いために緊急停止を引き起こすのを避けるために、ロボットの軌道が人間に干渉しないように修正する必要がある。
本研究の目的は,光の強度が低く,環境が大きく変化する自動倉庫において,人体に設置した単眼カメラのみを用いた絶対的な視覚的位置決め方式を実証することである。
関連論文リスト
- Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [70.93622520400385]
本稿では,VLAに基づくロボットシステムのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する,標的のない位置認識型攻撃目標を提案する。
また、カメラの視野内に小さなカラフルなパッチを配置し、デジタル環境と物理環境の両方で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Near Real-Time Position Tracking for Robot-Guided Evacuation [0.0]
本稿では,避難ロボットに適したリアルタイムに近い人体位置追跡ソリューションを提案する。
地上の真理と比較して0.55mの精度が得られることを示す。
われわれのアプローチのポテンシャルは単なる追跡以上のものとなり、回避運動予測への道を開いた。
論文 参考訳(メタデータ) (2023-09-26T16:34:18Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - Vision-Based Safety System for Barrierless Human-Robot Collaboration [0.0]
本稿では,速度分離監視(SSM)方式の安全システムを提案する。
ディープラーニングに基づくコンピュータビジョンシステムは、ロボットに近いオペレータの3D位置を検出し、追跡し、推定する。
人間とロボットが相互作用する3つの異なる操作モードが提示される。
論文 参考訳(メタデータ) (2022-08-03T12:31:03Z) - Interaction Replica: Tracking Human-Object Interaction and Scene Changes From Human Motion [48.982957332374866]
人間による変化をモデル化することは、デジタル双生児を作るのに不可欠である。
本手法は,シーン中の人間の視覚的位置決めとIMUデータからの人間とシーンの相互作用に関する接触に基づく推論を組み合わせたものである。
私たちのコード、データ、モデルは、プロジェクトのページ http://virtual humans.mpi-inf.mpg.de/ireplica/.comで公開されています。
論文 参考訳(メタデータ) (2022-05-05T17:58:06Z) - Regularized Deep Signed Distance Fields for Reactive Motion Generation [30.792481441975585]
距離に基づく制約は、ロボットが自分の行動を計画し、安全に行動できるようにするための基本となる。
本研究では,任意のスケールでスムーズな距離場を計算できる単一暗黙関数ReDSDFを提案する。
共有作業空間における全身制御(WBC)と安全なヒューマンロボットインタラクション(HRI)のための代表的タスクにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-09T14:21:32Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Tethered Aerial Visual Assistance [5.237054164442403]
無人有人無人航空機(UAV)は、有人ロボットチームで視覚アシスタントとして開発されている。
基本的視点品質理論、形式的リスク推論フレームワーク、および新たに開発されたテザリングモーションスイートを用いて、視覚アシスタントは、高品質な視点に自律的にナビゲートすることができる。
開発された有人ロボットチームは、核作戦、爆弾部隊、災害ロボット、その他の領域での遠隔操作効率を向上させることができる。
論文 参考訳(メタデータ) (2020-01-15T06:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。