論文の概要: GC-GAT: Multimodal Vehicular Trajectory Prediction using Graph Goal Conditioning and Cross-context Attention
- arxiv url: http://arxiv.org/abs/2504.11150v1
- Date: Tue, 15 Apr 2025 12:53:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:14.735511
- Title: GC-GAT: Multimodal Vehicular Trajectory Prediction using Graph Goal Conditioning and Cross-context Attention
- Title(参考訳): GC-GAT:グラフゴールコンディショニングとコンテキスト間アテンションを用いたマルチモーダルベクトル軌道予測
- Authors: Mahir Gulzar, Yar Muhammad, Naveed Muhammad,
- Abstract要約: レーングラフに基づく動き予測モデルを提案し、まずまずグラフに基づく目標提案を予測し、その後、複数のコンテキスト要素にまたがってそれらを融合する。
我々はnuScenesの動作予測データセットについて評価し、最先端の結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Predicting future trajectories of surrounding vehicles heavily relies on what contextual information is given to a motion prediction model. The context itself can be static (lanes, regulatory elements, etc) or dynamic (traffic participants). This paper presents a lane graph-based motion prediction model that first predicts graph-based goal proposals and later fuses them with cross attention over multiple contextual elements. We follow the famous encoder-interactor-decoder architecture where the encoder encodes scene context using lightweight Gated Recurrent Units, the interactor applies cross-context attention over encoded scene features and graph goal proposals, and the decoder regresses multimodal trajectories via Laplacian Mixture Density Network from the aggregated encodings. Using cross-attention over graph-based goal proposals gives robust trajectory estimates since the model learns to attend to future goal-relevant scene elements for the intended agent. We evaluate our work on nuScenes motion prediction dataset, achieving state-of-the-art results.
- Abstract(参考訳): 周辺車両の将来の軌道予測は、動き予測モデルにどのような状況情報が与えられるかに大きく依存する。
コンテキストそのものは静的(レーン、規制要素など)や動的(トラヒックな参加者)でもよい。
本稿では、まずグラフに基づく目標提案を予測し、その後、複数のコンテキスト要素にまたがってそれらを融合するレーングラフに基づく動き予測モデルを提案する。
本稿では,軽量なGated Recurrent Unitを用いてシーンコンテキストを符号化するエンコーダ/インタラクタ/デコーダアーキテクチャ,符号化されたシーン特徴とグラフ目標の提案に対してクロスコンテクストの注意を介し,デコーダは集約されたエンコーダからラプラシアン混合密度ネットワークを介してマルチモーダルトラジェクトリを回帰する,有名なエンコーダ/インタクタ/デコーダアーキテクチャに従う。
グラフベースの目標提案よりもクロスアテンションを使用することで、モデルが将来の目標関連シーン要素への参加を学ぶため、ロバストな軌道推定が可能になる。
我々はnuScenesの動作予測データセットについて評価し、最先端の結果を得た。
関連論文リスト
- SemanticFormer: Holistic and Semantic Traffic Scene Representation for Trajectory Prediction using Knowledge Graphs [3.733790302392792]
自動運転におけるトレイ予測は、運転シーンのすべての関連状況の正確な表現に依存している。
本稿では,交通シーングラフの推論によるマルチモーダル軌道の予測手法であるSemanticFormerを提案する。
論文 参考訳(メタデータ) (2024-04-30T09:11:04Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Decoder Fusion RNN: Context and Interaction Aware Decoders for
Trajectory Prediction [53.473846742702854]
本稿では,動き予測のための反復的,注意に基づくアプローチを提案する。
Decoder Fusion RNN (DF-RNN) は、リカレント動作エンコーダ、エージェント間マルチヘッドアテンションモジュール、コンテキスト認識デコーダで構成される。
提案手法の有効性をArgoverseモーション予測データセットで検証し,その性能を公開ベンチマークで示す。
論文 参考訳(メタデータ) (2021-08-12T15:53:37Z) - LaneRCNN: Distributed Representations for Graph-Centric Motion
Forecasting [104.8466438967385]
LaneRCNNはグラフ中心のモーション予測モデルです。
アクターごとのローカルレーングラフ表現を学び、過去の動きとローカルマップのトポロジをエンコードします。
我々はレーングラフに基づいて出力軌跡をパラメータ化し,よりアメニブルな予測パラメータ化を行う。
論文 参考訳(メタデータ) (2021-01-17T11:54:49Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z) - Understanding Dynamic Scenes using Graph Convolution Networks [22.022759283770377]
本稿では,移動カメラが捉えた時間順のフレーム列から道路車両の挙動をモデル化する新しい枠組みを提案する。
微調整に頼らずに複数のデータセットへの学習のシームレスな移行を示す。
このような振る舞い予測手法は,様々なナビゲーションタスクにおいて即時関連性を見出す。
論文 参考訳(メタデータ) (2020-05-09T13:05:06Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Motion Segmentation using Frequency Domain Transformer Networks [29.998917158604694]
本稿では,前景と背景を別々にモデル化することで,次のフレームを予測できる新しいエンドツーエンド学習アーキテクチャを提案する。
我々の手法は、ビデオラダーネットワークや予測ゲーテッドピラミドなど、広く使われているビデオ予測手法よりも優れた合成データが得られる。
論文 参考訳(メタデータ) (2020-04-18T15:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。