論文の概要: Collecting Human Motion Data in Large and Occlusion-Prone Environments using Ultra-Wideband Localization
- arxiv url: http://arxiv.org/abs/2505.05851v1
- Date: Fri, 09 May 2025 07:44:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.192162
- Title: Collecting Human Motion Data in Large and Occlusion-Prone Environments using Ultra-Wideband Localization
- Title(参考訳): 超広帯域局在を用いた大規模・排他的環境における人体動作データの収集
- Authors: Janik Kaden, Maximilian Hilger, Tim Schreiter, Marius Schaab, Thomas Graichen, Andrey Rudenko, Ulrich Heinkel, Achim J. Lilienthal,
- Abstract要約: 本稿では,UWB(Ultra-Wideband)ローカライゼーション技術の適用の可能性について検討する。
我々は、視線追跡、搭載ロボットLiDAR、レーダーセンサーなどの追加のセンシングモードや、モーションキャプチャデータを地上の真実として記録し、評価と比較を行う。
- 参考スコア(独自算出の注目度): 1.3852370777848657
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With robots increasingly integrating into human environments, understanding and predicting human motion is essential for safe and efficient interactions. Modern human motion and activity prediction approaches require high quality and quantity of data for training and evaluation, usually collected from motion capture systems, onboard or stationary sensors. Setting up these systems is challenging due to the intricate setup of hardware components, extensive calibration procedures, occlusions, and substantial costs. These constraints make deploying such systems in new and large environments difficult and limit their usability for in-the-wild measurements. In this paper we investigate the possibility to apply the novel Ultra-Wideband (UWB) localization technology as a scalable alternative for human motion capture in crowded and occlusion-prone environments. We include additional sensing modalities such as eye-tracking, onboard robot LiDAR and radar sensors, and record motion capture data as ground truth for evaluation and comparison. The environment imitates a museum setup, with up to four active participants navigating toward random goals in a natural way, and offers more than 130 minutes of multi-modal data. Our investigation provides a step toward scalable and accurate motion data collection beyond vision-based systems, laying a foundation for evaluating sensing modalities like UWB in larger and complex environments like warehouses, airports, or convention centers.
- Abstract(参考訳): ロボットがますます人間環境に統合されるにつれて、人間の動きの理解と予測は安全で効率的な相互作用に不可欠である。
現代の人間の動きと活動予測アプローチは、トレーニングと評価のために高品質で大量のデータを必要とし、通常はモーションキャプチャシステム、搭載センサー、静止センサーから収集される。
これらのシステムのセットアップは、ハードウェアコンポーネントの複雑なセットアップ、広範囲のキャリブレーション手順、閉塞、相当なコストのために困難である。
これらの制約は、そのようなシステムを新しい大規模環境にデプロイすることを困難にし、その使用性を制限する。
本稿では,UWB(Ultra-Wideband)ローカライゼーション技術を,混み合った環境下での人間のモーションキャプチャーのスケーラブルな代替手段として応用する可能性について検討する。
我々は、視線追跡、搭載ロボットLiDAR、レーダーセンサーなどの追加のセンシングモードや、モーションキャプチャデータを地上の真実として記録し、評価と比較を行う。
この環境は博物館の施設を模倣し、4人までの参加者が自然にランダムな目標に向かって移動し、130分以上のマルチモーダルデータを提供している。
我々の調査は、視覚ベースのシステムを超えた、スケーラブルで正確なモーションデータ収集に向けた一歩であり、倉庫や空港、コンベンションセンターのような大規模で複雑な環境で、UWBのようなモダリティを検知する基盤を構築する。
関連論文リスト
- A system for objectively measuring behavior and the environment to support large-scale studies on childhood obesity [7.588188945850937]
複数の行動・環境指標を収集・抽出する統合システムを提案する。
私たちのゴールは、設計原則、実装プロセス、統合アルゴリズムの評価に関する詳細な説明を提供することです。
論文 参考訳(メタデータ) (2025-01-05T14:27:09Z) - ES-PTAM: Event-based Stereo Parallel Tracking and Mapping [11.801511288805225]
イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
論文 参考訳(メタデータ) (2024-08-28T07:56:28Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - LiveHPS++: Robust and Coherent Motion Capture in Dynamic Free Environment [17.832694508927407]
単一LiDARシステムに基づく革新的で効果的なソリューションであるLiveHPS++を紹介する。
3つのモジュールを巧妙に設計し,人間の動作から動的・運動学的特徴を学習することができる。
提案手法は,様々なデータセットにまたがって既存の最先端手法を大幅に超えることが証明されている。
論文 参考訳(メタデータ) (2024-07-13T10:04:45Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Robot Active Neural Sensing and Planning in Unknown Cluttered
Environments [0.0]
未知の乱雑な環境でのアクティブなセンシングと計画は、ホームサービス、探索と救助、狭い通行検査、医療支援を提供するロボットにとって、オープンな課題である。
本研究は,ロボットマニピュレータの動力学的に実現可能な視点列を手動カメラで生成し,基礎環境の再構築に必要な観測回数を最小化するための能動型ニューラルセンシング手法を提案する。
我々のフレームワークは視覚的RGBD観測を積極的に収集し、それらをシーン表現に集約し、環境との不要なロボットの相互作用を避けるためにオブジェクト形状推論を行う。
論文 参考訳(メタデータ) (2022-08-23T16:56:54Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。