論文の概要: Context-aware Pedestrian Trajectory Prediction with Multimodal
Transformer
- arxiv url: http://arxiv.org/abs/2307.03786v1
- Date: Fri, 7 Jul 2023 18:21:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 17:38:08.958468
- Title: Context-aware Pedestrian Trajectory Prediction with Multimodal
Transformer
- Title(参考訳): マルチモーダル変圧器を用いたコンテクストアウェア歩行者軌跡予測
- Authors: Haleh Damirchi, Michael Greenspan, Ali Etemad
- Abstract要約: 歩行者の将来の軌跡を予測するための新しい手法を提案する。
本手法では,歩行者位置と自走車速の両方を入力とするマルチモーダルエンコーダデコーダトランスアーキテクチャを用いる。
我々は、PIEとJAADという2つの一般的なデータセット上で詳細な実験を行い、その方法を評価する。
- 参考スコア(独自算出の注目度): 16.457778420360537
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel solution for predicting future trajectories of
pedestrians. Our method uses a multimodal encoder-decoder transformer
architecture, which takes as input both pedestrian locations and ego-vehicle
speeds. Notably, our decoder predicts the entire future trajectory in a
single-pass and does not perform one-step-ahead prediction, which makes the
method effective for embedded edge deployment. We perform detailed experiments
and evaluate our method on two popular datasets, PIE and JAAD. Quantitative
results demonstrate the superiority of our proposed model over the current
state-of-the-art, which consistently achieves the lowest error for 3 time
horizons of 0.5, 1.0 and 1.5 seconds. Moreover, the proposed method is
significantly faster than the state-of-the-art for the two datasets of PIE and
JAAD. Lastly, ablation experiments demonstrate the impact of the key multimodal
configuration of our method.
- Abstract(参考訳): 歩行者の将来の軌跡を予測するための新しい手法を提案する。
本手法では,歩行者位置と自走車速の両方を入力とするマルチモーダルエンコーダデコーダトランスアーキテクチャを用いる。
特に,デコーダは1回のパスで将来の軌跡全体を予測し,一歩先予測を行わないため,組込みエッジ配置に有効である。
我々は、PIEとJAADという2つの一般的なデータセット上で詳細な実験を行い、その方法を評価する。
提案手法は, 0.5, 1.0, 1.5秒の3時間水平線において, 常に最小誤差を達成している。
さらに,提案手法はPIEとJAADの2つのデータセットの最先端よりもはるかに高速である。
最後に,アブレーション実験により,本手法のキーマルチモーダル構成の影響を実証した。
関連論文リスト
- StreamMOTP: Streaming and Unified Framework for Joint 3D Multi-Object Tracking and Trajectory Prediction [22.29257945966914]
我々は3次元多目的追跡・軌道予測(StreamMOTP)のためのストリーミング統合フレームワークを提案する。
ストリーミング方式でモデルを構築し、メモリバンクを利用して、追跡対象の長期潜伏機能をより効果的に保存し、活用する。
また,予測トラジェクタの品質と一貫性を2ストリーム予測器で改善する。
論文 参考訳(メタデータ) (2024-06-28T11:35:35Z) - GDTS: Goal-Guided Diffusion Model with Tree Sampling for Multi-Modal Pedestrian Trajectory Prediction [15.731398013255179]
マルチモーダル軌道予測のための木サンプリングを用いたゴールガイド拡散モデルを提案する。
2段階のツリーサンプリングアルゴリズムが提案され、一般的な特徴を活用して推論時間を短縮し、マルチモーダル予測の精度を向上させる。
実験により,提案フレームワークは,公開データセットにおけるリアルタイム推論速度と同等の最先端性能を達成できることが実証された。
論文 参考訳(メタデータ) (2023-11-25T03:55:06Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z) - BiTraP: Bi-directional Pedestrian Trajectory Prediction with Multi-modal
Goal Estimation [28.10445924083422]
BiTraPはCVAEに基づく目標条件付き双方向マルチモーダル軌道予測手法である。
BiTraPは、FPV(First-person view)とBEV(Bird's-eye view)の両方のシナリオに一般化し、最先端の結果を10~50%上回る。
論文 参考訳(メタデータ) (2020-07-29T02:40:17Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。