論文の概要: FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures
- arxiv url: http://arxiv.org/abs/2311.12992v1
- Date: Tue, 21 Nov 2023 20:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 17:12:10.147717
- Title: FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures
- Title(参考訳): FollowMe: 再識別とジェスチャーに基づくロバストな人物追跡フレームワーク
- Authors: Federico Rollo, Andrea Zunino, Gennaro Raiola, Fabio Amadio, Arash
Ajoudani and Nikolaos Tsagarakis
- Abstract要約: HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
- 参考スコア(独自算出の注目度): 12.850149165791551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-robot interaction (HRI) has become a crucial enabler in houses and
industries for facilitating operational flexibility. When it comes to mobile
collaborative robots, this flexibility can be further increased due to the
autonomous mobility and navigation capacity of the robotic agents, expanding
their workspace and consequently, the personalizable assistance they can
provide to the human operators. This however requires that the robot is capable
of detecting and identifying the human counterpart in all stages of the
collaborative task, and in particular while following a human in crowded
workplaces. To respond to this need, we developed a unified perception and
navigation framework, which enables the robot to identify and follow a target
person using a combination of visual Re-Identification (Re-ID), hand gestures
detection, and collision-free navigation. The Re-ID module can autonomously
learn the features of a target person and use the acquired knowledge to
visually re-identify the target. The navigation stack is used to follow the
target avoiding obstacles and other individuals in the environment. Experiments
are conducted with few subjects in a laboratory setting where some unknown
dynamic obstacles are introduced.
- Abstract(参考訳): HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
モバイルのコラボレーティブロボットに関しては、ロボットエージェントの自律的な移動能力とナビゲーション能力によって柔軟性がさらに向上し、ワークスペースを拡大し、その結果、人間のオペレーターにパーソナライズ可能な支援を提供する。
しかし、このロボットは、協調作業のあらゆる段階で、特に混雑した職場で人間を追跡しながら、人間を検知し、識別することができる必要がある。
このニーズに対応するために,視覚的再認識(Re-ID),手ジェスチャー検出,衝突のないナビゲーションを組み合わせることで,ロボットが対象者を識別・追跡できる統合認識ナビゲーションフレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
ナビゲーションスタックは、環境中の障害物やその他の個人を避けるターゲットを追跡するために使用される。
未知の動的障害物が導入された実験室で、少数の被験者で実験を行う。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - CARPE-ID: Continuously Adaptable Re-identification for Personalized
Robot Assistance [16.948256303861022]
今日のHuman-Robot Interaction(HRI)のシナリオでは、ロボットが最も近い個人と協力する必要があると仮定する傾向が一般的である。
連続的な視覚適応技術に基づく人物識別モジュールを提案する。
実験室環境におけるビデオ記録と,移動ロボットによるHRIシナリオを用いて,このフレームワークを単体でテストする。
論文 参考訳(メタデータ) (2023-10-30T10:24:21Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - Learning to Autonomously Reach Objects with NICO and Grow-When-Required
Networks [12.106301681662655]
発達型ロボティクスアプローチは、物体到達作業のためのNICOプラットフォーム上での視覚的協調学習に使用される。
複数のGWR(Grow-When-Required)ネットワークは、より複雑なモーター動作の学習に使用される。
本研究では,ヒューマノイドロボットNICOが76%の成功率で物体に到達可能であることを示す。
論文 参考訳(メタデータ) (2022-10-14T14:23:57Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Guided Navigation from Multiple Viewpoints using Qualitative Spatial
Reasoning [0.0]
本研究の目的は、感覚障害者ロボットを目標地点に誘導するアルゴリズムを開発することである。
この研究で考慮される主な課題は、自律的なエージェントのグループを考えると、一連のハイレベルなコマンドを生成できるアルゴリズムの開発と評価である。
論文 参考訳(メタデータ) (2020-11-03T00:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。