論文の概要: GBD-TS: Goal-based Pedestrian Trajectory Prediction with Diffusion using
Tree Sampling Algorithm
- arxiv url: http://arxiv.org/abs/2311.14922v1
- Date: Sat, 25 Nov 2023 03:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 23:01:16.642114
- Title: GBD-TS: Goal-based Pedestrian Trajectory Prediction with Diffusion using
Tree Sampling Algorithm
- Title(参考訳): GBD-TS:ツリーサンプリングアルゴリズムを用いた拡散に基づくゴールベース歩行者軌道予測
- Authors: Ge Sun, Sheng Wang, Yang Xiao, Lei Zhu, Ming Liu
- Abstract要約: 本稿では,GBD と呼ばれる,シーン認識型マルチモーダル歩行者軌道予測フレームワークを提案する。
まず、目標予測器は複数の目標を生成し、次に拡散ネットワークはこれらの目標に条件付きマルチモーダル軌道を生成する。
- 参考スコア(独自算出の注目度): 18.367711156885203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting pedestrian trajectories is crucial for improving the safety and
effectiveness of autonomous driving and mobile robots. However, this task is
nontrivial due to the inherent stochasticity of human motion, which naturally
requires the predictor to generate multi-model prediction. Previous works have
used various generative methods, such as GAN and VAE, for pedestrian trajectory
prediction. Nevertheless, these methods may suffer from problems, including
mode collapse and relatively low-quality results. The denoising diffusion
probabilistic model (DDPM) has recently been applied to trajectory prediction
due to its simple training process and powerful reconstruction ability.
However, current diffusion-based methods are straightforward without fully
leveraging input information and usually require many denoising iterations
leading to a long inference time or an additional network for initialization.
To address these challenges and promote the application of diffusion models in
trajectory prediction, we propose a novel scene-aware multi-modal pedestrian
trajectory prediction framework called GBD. GBD combines goal prediction with
the diffusion network. First, the goal predictor produces multiple goals, and
then the diffusion network generates multi-modal trajectories conditioned on
these goals. Furthermore, we introduce a new diffusion sampling algorithm named
tree sampling (TS), which leverages common feature to reduce the inference time
and improve accuracy for multi-modal prediction. Experimental results
demonstrate that our GBD-TS method achieves state-of-the-art performance with
real-time inference speed.
- Abstract(参考訳): 歩行者の軌跡予測は、自動運転と移動ロボットの安全性と有効性を改善するために不可欠である。
しかし、このタスクは人間の運動に固有の確率性があるため非自明であり、これは自然に予測者が多モデル予測を生成する必要がある。
以前の研究では、歩行者軌道予測にGANやVAEといった様々な生成手法が用いられてきた。
それでもこれらの手法はモード崩壊や比較的低品質な結果などの問題に悩まされる可能性がある。
DDPM(denoising diffusion probabilistic model)は, 単純なトレーニングプロセスと強力な再構築能力により, 軌道予測に応用されている。
しかし、現在の拡散ベース手法は入力情報を完全に活用することなく簡単であり、通常、長い推論時間や初期化のための追加のネットワークにつながる多くのデノイジングイテレーションを必要とする。
これらの課題に対処し, 軌道予測における拡散モデルの適用を促進するために, gbdと呼ばれる, シーンアウェア型歩行者軌道予測フレームワークを提案する。
GBDは目標予測と拡散ネットワークを組み合わせる。
まず、目標予測器は複数の目標を生成し、次に拡散ネットワークはこれらの目標に条件付きマルチモーダル軌道を生成する。
さらに,複数モーダル予測における推定時間削減と精度向上のために,共通の特徴を生かした新しい拡散サンプリングアルゴリズムであるツリーサンプリング(TS)を導入する。
実験の結果,GBD-TS法はリアルタイムの推論速度で最先端の性能を実現することがわかった。
関連論文リスト
- Optimizing Diffusion Models for Joint Trajectory Prediction and Controllable Generation [49.49868273653921]
拡散モデルは、自律運転における共同軌道予測と制御可能な生成を約束する。
最適ガウス拡散(OGD)と推定クリーンマニフォールド(ECM)誘導を導入する。
提案手法は生成過程の合理化を図り,計算オーバーヘッドを低減した実用的な応用を実現する。
論文 参考訳(メタデータ) (2024-08-01T17:59:59Z) - ADM: Accelerated Diffusion Model via Estimated Priors for Robust Motion Prediction under Uncertainties [6.865435680843742]
本稿では,騒音に対する抵抗性を高めたエージェントの将来の軌道を積極的に予測する,拡散型・加速可能な新しいフレームワークを提案する。
本手法は,自律走行車に必要な厳格なリアルタイム運転基準を満たす。
Argoverse 1のモーション予測データセット上でのマルチエージェント動作予測において,大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-05-01T18:16:55Z) - Towards Generalizable and Interpretable Motion Prediction: A Deep
Variational Bayes Approach [54.429396802848224]
本稿では,分布外ケースに対する頑健な一般化性を有する動き予測のための解釈可能な生成モデルを提案する。
このモデルでは, 長期目的地の空間分布を推定することにより, 目標駆動動作予測を実現する。
動き予測データセットの実験は、適合したモデルが解釈可能で一般化可能であることを検証した。
論文 参考訳(メタデータ) (2024-03-10T04:16:04Z) - MG-TSD: Multi-Granularity Time Series Diffusion Models with Guided Learning Process [26.661721555671626]
本稿では,最先端の予測性能を実現する新しい多粒度時系列(MG-TSD)モデルを提案する。
われわれのアプローチは外部データに頼らず、様々な領域にまたがって汎用的で適用可能である。
論文 参考訳(メタデータ) (2024-03-09T01:15:03Z) - DICE: Diverse Diffusion Model with Scoring for Trajectory Prediction [7.346307332191997]
本稿では,拡散モデルを用いて将来の軌跡を計算的に効率的に予測するフレームワークを提案する。
提案手法は, 試料軌道数を最大化し, 精度を向上させるための効率的なサンプリング機構である。
本研究では,一般歩行者(UCY/ETH)と自律走行(nuScenes)のベンチマークデータを用いて,経験的評価を行うことによるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2023-10-23T05:04:23Z) - Leapfrog Diffusion Model for Stochastic Trajectory Prediction [32.36667797656046]
本稿では,新しい拡散に基づく軌道予測モデルであるLeapfrog Diffusion Model(LED)を提案する。
LEDはリアルタイムで正確で多様な予測を提供する。
LEDは一貫して性能を改善し、NFLでは23.7%/21.9%のADE/FDE改善を達成した。
論文 参考訳(メタデータ) (2023-03-20T06:32:48Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Diverse Sampling for Normalizing Flow Based Trajectory Forecasting [34.01303881881315]
本研究では,事前学習フローモデルからトラジェクトリサンプルの品質と多様性を向上させるため,DSF(Diversity Smpling for Flow)を提案する。
DSFは実装が容易であり、既存のフローベースの予測モデルに対して、シンプルなプラグインの改善を提供する。
論文 参考訳(メタデータ) (2020-11-30T18:23:29Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。