論文の概要: Online Human Action Detection during Escorting
- arxiv url: http://arxiv.org/abs/2506.23573v1
- Date: Mon, 30 Jun 2025 07:25:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.954439
- Title: Online Human Action Detection during Escorting
- Title(参考訳): Escorting におけるオンライン人行動検出
- Authors: Siddhartha Mondal, Avik Mitra, Chayan Sarkar,
- Abstract要約: ロボットを護衛することは、主にナビゲーションに焦点を当てた戦略に依存している。
混み合った環境では、個人はペースを維持するのに苦労したり、邪魔したり、気を散らしたり、突然停止する必要が生じる。
本稿では,人物の再識別と行動予測をリアルタイムで実現するニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 1.4610685586329806
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The deployment of robot assistants in large indoor spaces has seen significant growth, with escorting tasks becoming a key application. However, most current escorting robots primarily rely on navigation-focused strategies, assuming that the person being escorted will follow without issue. In crowded environments, this assumption often falls short, as individuals may struggle to keep pace, become obstructed, get distracted, or need to stop unexpectedly. As a result, conventional robotic systems are often unable to provide effective escorting services due to their limited understanding of human movement dynamics. To address these challenges, an effective escorting robot must continuously detect and interpret human actions during the escorting process and adjust its movement accordingly. However, there is currently no existing dataset designed specifically for human action detection in the context of escorting. Given that escorting often occurs in crowded environments, where other individuals may enter the robot's camera view, the robot also needs to identify the specific human it is escorting (the subject) before predicting their actions. Since no existing model performs both person re-identification and action prediction in real-time, we propose a novel neural network architecture that can accomplish both tasks. This enables the robot to adjust its speed dynamically based on the escortee's movements and seamlessly resume escorting after any disruption. In comparative evaluations against strong baselines, our system demonstrates superior efficiency and effectiveness, showcasing its potential to significantly improve robotic escorting services in complex, real-world scenarios.
- Abstract(参考訳): 大規模な屋内空間におけるロボットアシスタントの展開は、護衛タスクが重要なアプリケーションとなるなど、大きな成長を遂げている。
しかし、現在の護衛ロボットのほとんどはナビゲーションに焦点を当てた戦略に依存しており、護衛された人物が問題なく追従することを前提としている。
混み合った環境では、個人がペースを維持するのに苦労したり、邪魔になったり、予期しない停止を余儀なくされたりするため、この仮定はしばしば短くなる。
その結果、従来のロボットシステムは、人間の運動力学の理解が限られているため、効果的な護衛サービスを提供できないことが多い。
これらの課題に対処するためには、効果的な護衛ロボットは、護衛中の人間の行動を継続的に検知し、解釈し、それに応じて動きを調整する必要がある。
しかし、現在、人間の行動検出に特化した既存のデータセットは、エスコートの文脈では存在しない。
ロボットは、他の個人がロボットのカメラビューに入ることができる混み合った環境でしばしばエスコートを行うので、ロボットは自身の行動を予測する前に、その人が護衛している特定の人間(対象)を特定する必要がある。
既存のモデルでは人物の再識別と行動予測をリアルタイムで行うことができないため,両タスクを実現できる新しいニューラルネットワークアーキテクチャを提案する。
これにより、ロボットは護衛者の動きに基づいて速度を動的に調整し、中断後の護衛をシームレスに再開することができる。
高いベースラインに対する比較評価において,本システムはより優れた効率と有効性を示し,複雑な実世界のシナリオにおいてロボット護衛サービスを著しく改善する可能性を示している。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Improving safety in physical human-robot collaboration via deep metric
learning [36.28667896565093]
柔軟な生産シナリオでは、ロボットとの直接の物理的相互作用がますます重要になっている。
リスクポテンシャルを低く抑えるため、物理的な接触がある場合や安全距離に違反する場合など、比較的簡単な操作措置が定められている。
この研究はDeep Metric Learning(DML)アプローチを用いて、非接触ロボットの動き、物理的人間とロボットの相互作用を目的とした意図的な接触、衝突状況の区別を行う。
論文 参考訳(メタデータ) (2023-02-23T11:26:51Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - What we see and What we don't see: Imputing Occluded Crowd Structures
from Robot Sensing [7.6272993984699635]
我々は,ロボットの周囲の空間,盲点における人間の占有度を,その知覚能力の範囲を超えて推定する問題に対処する。
この問題は、ロボットの群集のナビゲーション効率と安全性に重要な影響を与えているにもかかわらず、まだ解明されていない。
論文 参考訳(メタデータ) (2021-09-17T12:12:13Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。