論文の概要: SITUATE: Indoor Human Trajectory Prediction through Geometric Features and Self-Supervised Vision Representation
- arxiv url: http://arxiv.org/abs/2409.00774v1
- Date: Sun, 1 Sep 2024 16:36:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 09:11:31.822639
- Title: SITUATE: Indoor Human Trajectory Prediction through Geometric Features and Self-Supervised Vision Representation
- Title(参考訳): SITUATE:幾何学的特徴と自己監督型視覚表現による屋内人間の軌道予測
- Authors: Luigi Capogrosso, Andrea Toaiari, Andrea Avogaro, Uzair Khan, Aditya Jivoji, Franco Fummi, Marco Cristani,
- Abstract要約: 本稿では,室内における人間の軌道予測に対処する新しい手法であるSITUATEを提案する。
幾何学学習モジュールは、室内空間に固有の内在的対称性と人間の動きをモデル化する。
本手法は,2つの屋内軌道予測データセットの総合的な実験により評価する。
- 参考スコア(独自算出の注目度): 7.962602954742342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patterns of human motion in outdoor and indoor environments are substantially different due to the scope of the environment and the typical intentions of people therein. While outdoor trajectory forecasting has received significant attention, indoor forecasting is still an underexplored research area. This paper proposes SITUATE, a novel approach to cope with indoor human trajectory prediction by leveraging equivariant and invariant geometric features and a self-supervised vision representation. The geometric learning modules model the intrinsic symmetries and human movements inherent in indoor spaces. This concept becomes particularly important because self-loops at various scales and rapid direction changes often characterize indoor trajectories. On the other hand, the vision representation module is used to acquire spatial-semantic information about the environment to predict users' future locations more accurately. We evaluate our method through comprehensive experiments on the two most famous indoor trajectory forecasting datasets, i.e., TH\"OR and Supermarket, obtaining state-of-the-art performance. Furthermore, we also achieve competitive results in outdoor scenarios, showing that indoor-oriented forecasting models generalize better than outdoor-oriented ones. The source code is available at https://github.com/intelligolabs/SITUATE.
- Abstract(参考訳): 屋外および屋内環境における人間の動きのパターンは、環境の範囲やその典型的な意図によって大きく異なる。
アウトドア・トラジェクトリーの予測は注目されているが、屋内の予測はいまだ未調査の研究分野である。
本稿では,同変および不変な幾何学的特徴と自己監督型視覚表現を活用することで,室内における人間の軌道予測に対処する新しい手法であるSITUATEを提案する。
幾何学学習モジュールは、室内空間に固有の内在的対称性と人間の動きをモデル化する。
この概念は、様々なスケールの自己ループと高速な方向の変化がしばしば屋内軌道を特徴付けるため、特に重要である。
一方、視覚表現モジュールは、環境に関する空間意味情報を取得し、ユーザの将来の位置をより正確に予測するために使用される。
提案手法は,2つの最も有名な屋内軌道予測データセット,すなわちTH\ORとSupermarketの総合的な実験により評価され,最先端の性能が得られた。
さらに,屋外シナリオにおける競争結果も達成し,屋内指向の予測モデルは屋外指向の予測モデルよりも一般化されていることを示す。
ソースコードはhttps://github.com/intelligolabs/SITUATEで入手できる。
関連論文リスト
- JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Reasoning about the Unseen for Efficient Outdoor Object Navigation [31.699514279584076]
本稿では,LLM(Large Language Models)のための新しいメカニズムであるOUTDOORを導入する。
シミュレーションされたドローンと屋外環境での物理的四足歩行の両方で印象的な結果が得られた。
論文 参考訳(メタデータ) (2023-09-18T19:24:21Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Class-Aware Attention for Multimodal Trajectory Prediction [0.7130302992490973]
自律運転における多モーダル軌道予測のための新しい枠組みを提案する。
我々のモデルはリアルタイムに動作することができ、300FPSを超える高い推論速度を達成することができる。
論文 参考訳(メタデータ) (2022-08-31T18:43:23Z) - Learning Continuous Environment Fields via Implicit Functions [144.4913852552954]
本研究では,到達距離(シーン内の任意の位置から目標までの距離)を,実現可能な軌道に沿って符号化する新しいシーン表現を提案する。
本研究では,2次元迷路や屋内3次元シーンにおけるエージェントの動的挙動を直接導出できることを実証する。
論文 参考訳(メタデータ) (2021-11-27T22:36:58Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - AC-VRNN: Attentive Conditional-VRNN for Multi-Future Trajectory
Prediction [30.61190086847564]
条件付き変動リカレントニューラルネットワーク(C-VRNN)に基づくマルチフューチャ軌道予測のための生成アーキテクチャを提案する。
ヒューマンインタラクションは、繰り返し推定のオンライン注意深い隠れ状態改善を可能にするグラフベースのアテンションメカニズムでモデル化される。
論文 参考訳(メタデータ) (2020-05-17T17:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。