論文の概要: Graph-Based Interaction-Aware Multimodal 2D Vehicle Trajectory
Prediction using Diffusion Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2309.01981v1
- Date: Tue, 5 Sep 2023 06:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 16:15:42.746876
- Title: Graph-Based Interaction-Aware Multimodal 2D Vehicle Trajectory
Prediction using Diffusion Graph Convolutional Networks
- Title(参考訳): 拡散グラフ畳み込みネットワークを用いたグラフベースインタラクションアウェアマルチモーダル2次元車両軌道予測
- Authors: Keshu Wu, Yang Zhou, Haotian Shi, Xiaopeng Li, Bin Ran
- Abstract要約: 本研究では,グラフに基づく対話型多モード軌道予測フレームワークを提案する。
このフレームワーク内では、車両の動きは時間変化グラフのノードとして概念化され、交通相互作用は動的隣接行列によって表現される。
我々は、意図特異的な特徴融合を採用し、歴史的および将来の埋め込みの適応的な統合を可能にする。
- 参考スコア(独自算出の注目度): 17.989423104706397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting vehicle trajectories is crucial for ensuring automated vehicle
operation efficiency and safety, particularly on congested multi-lane highways.
In such dynamic environments, a vehicle's motion is determined by its
historical behaviors as well as interactions with surrounding vehicles. These
intricate interactions arise from unpredictable motion patterns, leading to a
wide range of driving behaviors that warrant in-depth investigation. This study
presents the Graph-based Interaction-aware Multi-modal Trajectory Prediction
(GIMTP) framework, designed to probabilistically predict future vehicle
trajectories by effectively capturing these interactions. Within this
framework, vehicles' motions are conceptualized as nodes in a time-varying
graph, and the traffic interactions are represented by a dynamic adjacency
matrix. To holistically capture both spatial and temporal dependencies embedded
in this dynamic adjacency matrix, the methodology incorporates the Diffusion
Graph Convolutional Network (DGCN), thereby providing a graph embedding of both
historical states and future states. Furthermore, we employ a driving
intention-specific feature fusion, enabling the adaptive integration of
historical and future embeddings for enhanced intention recognition and
trajectory prediction. This model gives two-dimensional predictions for each
mode of longitudinal and lateral driving behaviors and offers probabilistic
future paths with corresponding probabilities, addressing the challenges of
complex vehicle interactions and multi-modality of driving behaviors.
Validation using real-world trajectory datasets demonstrates the efficiency and
potential.
- Abstract(参考訳): 自動走行の効率と安全性を確保するためには,車両軌道予測が不可欠である。
このような動的な環境では、車両の動きは、その歴史的挙動と周囲の車両との相互作用によって決定される。
これらの複雑な相互作用は予測不可能な動作パターンから生じ、深い調査を保証できる幅広い運転行動を引き起こす。
本研究では,これらの相互作用を効果的に捉え,将来の車両軌道を確率的に予測するグラフベースインタラクション対応マルチモーダル軌道予測(GIMTP)フレームワークを提案する。
この枠組みでは、車両の動きは時間変化グラフのノードとして概念化され、交通相互作用は動的隣接行列によって表される。
この動的隣接行列に埋め込まれた空間的および時間的依存関係の両方を均等に捉えるため、この手法は拡散グラフ畳み込みネットワーク(DGCN)を導入し、歴史的状態と将来の状態の両方をグラフ埋め込む。
さらに、運転意図特異的な特徴融合を用いて、歴史的および将来の埋め込みを適応的に統合し、意図認識と軌道予測を強化する。
このモデルでは、縦・横の運転行動の各モードについて2次元予測を行い、複雑な車両相互作用の課題と運転行動の多モード性に対処する確率論的未来経路を提供する。
実世界の軌道データセットを用いた検証は、効率とポテンシャルを示す。
関連論文リスト
- Hypergraph-based Motion Generation with Multi-modal Interaction Relational Reasoning [13.294396870431399]
現実世界の運転環境は、車両間の動的かつ多様な相互作用によって特徴づけられる。
本研究では,自律走行車(AV)の運動予測のための統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-18T03:30:38Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - D2-TPred: Discontinuous Dependency for Trajectory Prediction under
Traffic Lights [68.76631399516823]
本稿では,空間的動的相互作用グラフ(SDG)と行動依存グラフ(BDG)を用いて,交通信号に対する軌道予測手法D2-TPredを提案する。
実験の結果,VTP-TLではADEとFDEでそれぞれ20.45%,20.78%以上を達成できた。
論文 参考訳(メタデータ) (2022-07-21T10:19:07Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Multi-modal Trajectory Prediction for Autonomous Driving with Semantic
Map and Dynamic Graph Attention Network [12.791191495432829]
現実の交通シナリオにおける軌道予測にはいくつかの課題がある。
目的や周囲に注意を払って交通をナビゲートする人々の自然な習慣に触発された本論文は,ユニークなグラフ注意ネットワークを示す。
ネットワークはエージェント間の動的社会的相互作用をモデル化し、セマンティックマップでトラフィックルールに適合するように設計されている。
論文 参考訳(メタデータ) (2021-03-30T11:53:12Z) - Interaction-Based Trajectory Prediction Over a Hybrid Traffic Graph [4.574413934477815]
本稿では,トラフィックアクタと静的および動的トラフィック要素の両方をノードが表現するハイブリッドグラフを提案する。
アクターとトラフィック要素間の時間的相互作用(例えば、停止と移動)の異なるモードは、グラフエッジによって明示的にモデル化される。
提案するモデルであるTrafficGraphNetは,高いレベルの解釈性を維持しつつ,最先端の軌道予測精度を実現する。
論文 参考訳(メタデータ) (2020-09-27T18:20:03Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Probabilistic Crowd GAN: Multimodal Pedestrian Trajectory Prediction
using a Graph Vehicle-Pedestrian Attention Network [12.070251470948772]
本稿では,確率的集団GANが確率的マルチモーダル予測をどうやって生成できるかを示す。
ソーシャルインタラクションをモデル化するグラフ車両歩行者注意ネットワーク(GVAT)も提案する。
本研究では,軌道予測手法の既存の状況の改善を実証し,集団間相互作用の真のマルチモーダル性と不確実性を直接モデル化する方法について述べる。
論文 参考訳(メタデータ) (2020-06-23T11:25:16Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - Social-WaGDAT: Interaction-aware Trajectory Prediction via Wasserstein
Graph Double-Attention Network [29.289670231364788]
本稿では,マルチエージェント軌道予測のためのジェネリック生成ニューラルシステムを提案する。
また、車両軌道予測に効率的なキネマティック拘束層を応用した。
提案システムは,軌道予測のための3つの公開ベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-14T20:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。