論文の概要: Legs Over Arms: On the Predictive Value of Lower-Body Pose for Human Trajectory Prediction from Egocentric Robot Perception
- arxiv url: http://arxiv.org/abs/2602.09076v1
- Date: Mon, 09 Feb 2026 16:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.300867
- Title: Legs Over Arms: On the Predictive Value of Lower-Body Pose for Human Trajectory Prediction from Egocentric Robot Perception
- Title(参考訳): 腕の上の脚:エゴセントリックロボットの知覚による人間の軌道予測における下肢姿勢の予測的価値について
- Authors: Nhat Le, Daeun Song, Xuesu Xiao,
- Abstract要約: 2次元および3次元骨格キーポイントと誘導生体力学的手がかりの予測的有用性を追加入力として評価した。
低体3次元キーポイントに注目すると平均変位誤差が13%減少することがわかった。
ロボットが足を見て人間の動きを効率よく予測できることは、社会ロボットナビゲーションのためのセンシング機能を設計するための実用的な洞察を与えてくれる。
- 参考スコア(独自算出の注目度): 10.903518939344645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting human trajectory is crucial for social robot navigation in crowded environments. While most existing approaches treat human as point mass, we present a study on multi-agent trajectory prediction that leverages different human skeletal features for improved forecast accuracy. In particular, we systematically evaluate the predictive utility of 2D and 3D skeletal keypoints and derived biomechanical cues as additional inputs. Through a comprehensive study on the JRDB dataset and another new dataset for social navigation with 360-degree panoramic videos, we find that focusing on lower-body 3D keypoints yields a 13% reduction in Average Displacement Error and augmenting 3D keypoint inputs with corresponding biomechanical cues provides a further 1-4% improvement. Notably, the performance gain persists when using 2D keypoint inputs extracted from equirectangular panoramic images, indicating that monocular surround vision can capture informative cues for motion forecasting. Our finding that robots can forecast human movement efficiently by watching their legs provides actionable insights for designing sensing capabilities for social robot navigation.
- Abstract(参考訳): 混み合った環境での社会ロボットナビゲーションには,人間の軌道予測が不可欠である。
既存のほとんどのアプローチでは、人体を点質量として扱うが、異なる人体の特徴を活用して予測精度を向上させるマルチエージェント軌道予測について検討する。
特に,2次元および3次元骨格キーポイントと誘導生体力学的手がかりの予測の有用性を付加的な入力として体系的に評価した。
JRDBデータセットと360度パノラマビデオによるソーシャルナビゲーションのための新しいデータセットを総合的に研究した結果、下半身の3Dキーポイントに焦点を当てると平均変位誤差が13%減少し、3Dキーポイント入力が対応するバイオメカニカルキューによってさらに1~4%改善されることがわかった。
特に、等方形パノラマ画像から抽出した2Dキーポイント入力を使用することで、モノクロサラウンドビジョンが動き予測のための情報的手がかりを捉えることができることを示す場合、性能ゲインが持続する。
ロボットが足を見て人間の動きを効率よく予測できることは、社会ロボットナビゲーションのためのセンシング機能を設計するための実用的な洞察を与えてくれる。
関連論文リスト
- Social-Pose: Enhancing Trajectory Prediction with Human Body Pose [70.59399670794171]
本研究では,人体ポーズを用いた人体軌道予測の利点について検討した。
我々は,シーン内のすべての人間のポーズとその社会的関係を効果的にキャプチャするアテンションベースのポーズエンコーダであるSocial-poseを提案する。
論文 参考訳(メタデータ) (2025-07-30T14:58:48Z) - UPTor: Unified 3D Human Pose Dynamics and Trajectory Prediction for Human-Robot Interaction [0.688204255655161]
本研究では,グローバル座標フレームにおける全体ポーズと軌道キーポイントの予測手法を提案する。
我々は、市販の3次元ポーズ推定モジュール、グラフアテンションネットワーク、コンパクトで非自己回帰的なトランスフォーマーを使用する。
従来の研究と比較して、我々のアプローチはコンパクトでリアルタイムであり、全てのデータセットにわたる人間のナビゲーション動作を予測する上で正確であることを示す。
論文 参考訳(メタデータ) (2025-05-20T19:57:25Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Robots That Can See: Leveraging Human Pose for Trajectory Prediction [30.919756497223343]
本研究では,人間中心環境における未来の軌道を予測するためのトランスフォーマーアーキテクチャを提案する。
結果として得られたモデルは、将来の人間の軌道予測に固有の不確実性を捉えている。
我々は,限られた履歴データを持つ新しいエージェントを誤りの主な要因として同定し,予測誤差を低減するために3次元骨格ポーズの相補的な性質を実証する。
論文 参考訳(メタデータ) (2023-09-29T13:02:56Z) - Occlusion-Robust Multi-Sensory Posture Estimation in Physical
Human-Robot Interaction [10.063075560468798]
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道。
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道を利用する。
本研究は,OpenPoseのみを用いた姿勢推定や,ロボットの軌道のみを用いた姿勢推定よりも,人間の体力の冗長性を解消できることを示す。
論文 参考訳(メタデータ) (2022-08-12T20:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。