論文の概要: GATraj: A Graph- and Attention-based Multi-Agent Trajectory Prediction
Model
- arxiv url: http://arxiv.org/abs/2209.07857v2
- Date: Mon, 19 Jun 2023 13:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 05:37:56.546773
- Title: GATraj: A Graph- and Attention-based Multi-Agent Trajectory Prediction
Model
- Title(参考訳): GATraj: グラフと注意に基づくマルチエージェント軌道予測モデル
- Authors: Hao Cheng, Mengmeng Liu, Lin Chen, Hellward Broszio, Monika Sester,
Michael Ying Yang
- Abstract要約: 軌道予測は、自律運転やロボットナビゲーションといったインテリジェントシステムにおいて、長年にわたって問題となっていた。
本稿では,予測精度と推定速度のバランスが良好であるGATrajという注目グラフモデルを提案する。
- 参考スコア(独自算出の注目度): 18.762609012554147
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Trajectory prediction has been a long-standing problem in intelligent systems
like autonomous driving and robot navigation. Models trained on large-scale
benchmarks have made significant progress in improving prediction accuracy.
However, the importance on efficiency for real-time applications has been less
emphasized. This paper proposes an attention-based graph model, named GATraj,
which achieves a good balance of prediction accuracy and inference speed. We
use attention mechanisms to model the spatial-temporal dynamics of agents, such
as pedestrians or vehicles, and a graph convolutional network to model their
interactions. Additionally, a Laplacian mixture decoder is implemented to
mitigate mode collapse and generate diverse multimodal predictions for each
agent. GATraj achieves state-of-the-art prediction performance at a much higher
speed when tested on the ETH/UCY datasets for pedestrian trajectories, and good
performance at about 100 Hz inference speed when tested on the nuScenes dataset
for autonomous driving. We conduct extensive experiments to analyze the
probability estimation of the Laplacian mixture decoder and compare it with a
Gaussian mixture decoder for predicting different multimodalities. Furthermore,
comprehensive ablation studies demonstrate the effectiveness of each proposed
module in GATraj. The code is released at
https://github.com/mengmengliu1998/GATraj.
- Abstract(参考訳): 軌道予測は、自動運転やロボットナビゲーションといったインテリジェントなシステムでは長年にわたって問題となっている。
大規模ベンチマークでトレーニングされたモデルでは、予測精度が大幅に向上した。
しかし、リアルタイムアプリケーションの効率性の重要性は強調されていない。
本稿では,予測精度と推定速度のバランスが良好であるgatrajと呼ばれる注意に基づくグラフモデルを提案する。
注意機構を用いて,歩行者や車両などのエージェントの空間・時間動態をモデル化し,その相互作用をグラフ畳み込みネットワークでモデル化する。
さらに、モード崩壊を緩和し、各エージェントに対して多様なマルチモーダル予測を生成するためにラプラシアン混合デコーダが実装されている。
GATrajは、歩行者軌跡のETH/UCYデータセットでテストした場合、最先端の予測性能をはるかに高速に達成し、自動運転のためのnuScenesデータセットでテストした場合、およそ100Hzの推論速度でパフォーマンスを向上する。
本研究では,ラプラシアン混合デコーダの確率推定を解析し,ガウス混合デコーダと比較し,異なるマルチモーダリティを推定する。
さらに, 包括的アブレーション研究によりgatrajの各モジュールの有効性が示された。
コードはhttps://github.com/mengmengliu1998/gatrajでリリースされる。
関連論文リスト
- Planning with Adaptive World Models for Autonomous Driving [50.4439896514353]
運動プランナー(MP)は複雑な都市環境における安全なナビゲーションに不可欠である。
最近リリースされたMPベンチマークであるnuPlanは、クローズドループシミュレーションロジックで現実世界の駆動ログを拡張することで、この制限に対処している。
本稿では,モデル予測制御(MPC)ベースのプランナであるAdaptiveDriverを提案する。
論文 参考訳(メタデータ) (2024-06-15T18:53:45Z) - GRANP: A Graph Recurrent Attentive Neural Process Model for Vehicle Trajectory Prediction [3.031375888004876]
車両軌道予測のためのGRANP(Graph Recurrent Attentive Neural Process)という新しいモデルを提案する。
GRANPには、決定論的パスと遅延パスを持つエンコーダと、予測のためのデコーダが含まれている。
我々は,GRANPが最先端の結果を達成し,不確実性を効率的に定量化できることを示す。
論文 参考訳(メタデータ) (2024-04-09T05:51:40Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - PreTR: Spatio-Temporal Non-Autoregressive Trajectory Prediction
Transformer [0.9786690381850356]
PRediction Transformer (PReTR) と呼ばれるモデルを導入し、時間分解型アテンションモジュールを用いてマルチエージェントシーンから特徴を抽出する。
これは、経験的により良い結果を持つ以前の研究されたモデルよりも計算上の必要性が低いことを示している。
我々は,学習対象クエリの集合を並列デコードするために,エンコーダ・デコーダ・トランスフォーマネットワークを利用する。
論文 参考訳(メタデータ) (2022-03-17T12:52:23Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Predicting traffic signals on transportation networks using
spatio-temporal correlations on graphs [56.48498624951417]
本稿では,複数の熱拡散カーネルをデータ駆動予測モデルにマージして交通信号を予測する交通伝搬モデルを提案する。
予測誤差を最小限に抑えるためにベイズ推定を用いてモデルパラメータを最適化し,2つの手法の混合率を決定する。
提案モデルでは,計算労力の少ない最先端のディープニューラルネットワークに匹敵する予測精度を示す。
論文 参考訳(メタデータ) (2021-04-27T18:17:42Z) - Spatio-Temporal Graph Dual-Attention Network for Multi-Agent Prediction
and Tracking [23.608125748229174]
異種エージェントを含む多エージェント軌道予測のための汎用生成ニューラルシステムを提案する。
提案システムは, 軌道予測のための3つのベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-02-18T02:25:35Z) - Attentional-GCNN: Adaptive Pedestrian Trajectory Prediction towards
Generic Autonomous Vehicle Use Cases [10.41902340952981]
本稿では,グラフのエッジに注目重みを割り当てることで,歩行者間の暗黙的相互作用に関する情報を集約する,GCNNに基づく新しいアプローチであるAttentional-GCNNを提案する。
提案手法は,10%平均変位誤差 (ADE) と12%最終変位誤差 (FDE) を高速な推論速度で向上することを示す。
論文 参考訳(メタデータ) (2020-11-23T03:13:26Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z) - Long-Term Prediction of Lane Change Maneuver Through a Multilayer
Perceptron [5.267336573374459]
横方向情報や角度情報のない長期(510秒)レーン変更予測モデルを提案する。
ロジスティック回帰モデル、多層パーセプトロン(MLP)モデル、リカレントニューラルネットワーク(RNN)モデルを含む3つの予測モデルが導入されている。
評価結果から, 開発した予測モデルでは, 実車線変更操作の75%を平均8.05秒で捉えることができることがわかった。
論文 参考訳(メタデータ) (2020-06-23T05:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。