論文の概要: HEADS-UP: Head-Mounted Egocentric Dataset for Trajectory Prediction in Blind Assistance Systems
- arxiv url: http://arxiv.org/abs/2409.20324v1
- Date: Mon, 30 Sep 2024 14:26:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 07:56:35.977268
- Title: HEADS-UP: Head-Mounted Egocentric Dataset for Trajectory Prediction in Blind Assistance Systems
- Title(参考訳): HEADS-UP:Blind Assistance Systemにおける軌道予測のためのヘッドマウントエゴセントリックデータセット
- Authors: Yasaman Haghighi, Celine Demonsant, Panagiotis Chalimourdas, Maryam Tavasoli Naeini, Jhon Kevin Munoz, Bladimir Bacca, Silvan Suter, Matthieu Gani, Alexandre Alahi,
- Abstract要約: HEADS-UPは、ヘッドマウントカメラから収集された最初のエゴセントリックなデータセットである。
視覚障害者と歩行者の衝突リスクを評価するための半局所軌道予測手法を提案する。
- 参考スコア(独自算出の注目度): 47.37573198723305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce HEADS-UP, the first egocentric dataset collected from head-mounted cameras, designed specifically for trajectory prediction in blind assistance systems. With the growing population of blind and visually impaired individuals, the need for intelligent assistive tools that provide real-time warnings about potential collisions with dynamic obstacles is becoming critical. These systems rely on algorithms capable of predicting the trajectories of moving objects, such as pedestrians, to issue timely hazard alerts. However, existing datasets fail to capture the necessary information from the perspective of a blind individual. To address this gap, HEADS-UP offers a novel dataset focused on trajectory prediction in this context. Leveraging this dataset, we propose a semi-local trajectory prediction approach to assess collision risks between blind individuals and pedestrians in dynamic environments. Unlike conventional methods that separately predict the trajectories of both the blind individual (ego agent) and pedestrians, our approach operates within a semi-local coordinate system, a rotated version of the camera's coordinate system, facilitating the prediction process. We validate our method on the HEADS-UP dataset and implement the proposed solution in ROS, performing real-time tests on an NVIDIA Jetson GPU through a user study. Results from both dataset evaluations and live tests demonstrate the robustness and efficiency of our approach.
- Abstract(参考訳): 本稿では,ヘッドマウントカメラから収集された最初のエゴセントリックなデータセットであるHEADS-UPについて紹介する。
視覚障害者や視覚障害者の人口増加に伴い、動的障害物との衝突をリアルタイムに警告するインテリジェント補助ツールの必要性が高まっている。
これらのシステムは、歩行者などの移動物体の軌跡を予測し、タイムリーな危険警報を発行するアルゴリズムに依存している。
しかし、既存のデータセットは、盲目の個人の観点から必要な情報を取得できない。
このギャップに対処するため、HEADS-UPは、このコンテキストにおける軌道予測に焦点を当てた、新しいデータセットを提供する。
このデータセットを活用することで、動的環境下での視覚障害者と歩行者の衝突リスクを評価するための半局所軌道予測手法を提案する。
視覚障害者(エゴエージェント)と歩行者の両方の軌跡を別々に予測する従来の手法とは異なり、本手法は半局所座標系(カメラの座標系の回転バージョン)内で動作し、予測プロセスを容易にする。
提案手法をHEADS-UPデータセット上で検証し,提案手法をROSで実装し,NVIDIA Jetson GPU上で実時間テストを行う。
データセット評価とライブテストの両方の結果は、我々のアプローチの堅牢性と効率を実証している。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Knowledge-aware Graph Transformer for Pedestrian Trajectory Prediction [15.454206825258169]
歩行者運動軌跡の予測は、自動運転車の経路計画と移動制御に不可欠である。
近年の深層学習に基づく予測手法は、主に軌跡履歴や歩行者間の相互作用などの情報を利用する。
本稿では,予測性能を向上させるためのグラフトランス構造を提案する。
論文 参考訳(メタデータ) (2024-01-10T01:50:29Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Exploring Attention GAN for Vehicle Motion Prediction [2.887073662645855]
身体的・社会的文脈を考慮した動き予測モデルにおける注意の影響について検討した。
本稿では,Argoverse Motion Forecasting Benchmark 1.1 を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T13:18:32Z) - T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories [9.44806128120871]
実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
論文 参考訳(メタデータ) (2022-09-22T20:14:43Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Attentional-GCNN: Adaptive Pedestrian Trajectory Prediction towards
Generic Autonomous Vehicle Use Cases [10.41902340952981]
本稿では,グラフのエッジに注目重みを割り当てることで,歩行者間の暗黙的相互作用に関する情報を集約する,GCNNに基づく新しいアプローチであるAttentional-GCNNを提案する。
提案手法は,10%平均変位誤差 (ADE) と12%最終変位誤差 (FDE) を高速な推論速度で向上することを示す。
論文 参考訳(メタデータ) (2020-11-23T03:13:26Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。