論文の概要: Co-MTP: A Cooperative Trajectory Prediction Framework with Multi-Temporal Fusion for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2502.16589v1
- Date: Sun, 23 Feb 2025 14:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:59:03.558723
- Title: Co-MTP: A Cooperative Trajectory Prediction Framework with Multi-Temporal Fusion for Autonomous Driving
- Title(参考訳): Co-MTP: 自律運転のためのマルチテンポラルフュージョンを用いた協調軌道予測フレームワーク
- Authors: Xinyu Zhang, Zewei Zhou, Zhaoyi Wang, Yangjie Ji, Yanjun Huang, Hong Chen,
- Abstract要約: Co-MTPは、自律運転のための多時間融合を伴う一般的な協調軌道予測フレームワークである。
将来の領域では、V2Xは周囲の物体の予測結果を提供することができる。
実世界のデータセットV2X-Seq上でのCo-MTPフレームワークの評価を行った。
- 参考スコア(独自算出の注目度): 16.479343520119073
- License:
- Abstract: Vehicle-to-everything technologies (V2X) have become an ideal paradigm to extend the perception range and see through the occlusion. Exiting efforts focus on single-frame cooperative perception, however, how to capture the temporal cue between frames with V2X to facilitate the prediction task even the planning task is still underexplored. In this paper, we introduce the Co-MTP, a general cooperative trajectory prediction framework with multi-temporal fusion for autonomous driving, which leverages the V2X system to fully capture the interaction among agents in both history and future domains to benefit the planning. In the history domain, V2X can complement the incomplete history trajectory in single-vehicle perception, and we design a heterogeneous graph transformer to learn the fusion of the history feature from multiple agents and capture the history interaction. Moreover, the goal of prediction is to support future planning. Thus, in the future domain, V2X can provide the prediction results of surrounding objects, and we further extend the graph transformer to capture the future interaction among the ego planning and the other vehicles' intentions and obtain the final future scenario state under a certain planning action. We evaluate the Co-MTP framework on the real-world dataset V2X-Seq, and the results show that Co-MTP achieves state-of-the-art performance and that both history and future fusion can greatly benefit prediction.
- Abstract(参考訳): 車間通信技術(V2X)は、知覚範囲を拡張し、閉塞を通して見るのに理想的なパラダイムとなっている。
しかし、既存の取り組みは単フレーム協調認識に重点を置いており、V2Xでフレーム間の時間的キューをキャプチャして、計画課題がまだ未検討である場合でも予測作業を容易にする方法である。
本稿では、V2Xシステムを利用して、歴史と将来のドメインにおけるエージェント間の相互作用を完全に把握し、計画の恩恵を受けるための一般的な協調的軌道予測フレームワークであるCo-MTPを紹介する。
歴史領域において、V2Xは単車体知覚における不完全な歴史軌跡を補完し、複数のエージェントから履歴特徴の融合を学習し、歴史相互作用を捉えるヘテロジニアスグラフ変換器を設計する。
さらに、予測の目標は将来の計画をサポートすることである。
したがって、将来の領域では、V2Xは周囲の物体の予測結果を提供し、さらにグラフ変換器を拡張して、エゴ計画と他の車両の意図との間の将来の相互作用を捉え、ある計画行動の下で最終的な将来のシナリオ状態を得る。
実世界のデータセットであるV2X-Seq上でのCo-MTPフレームワークの評価を行い、その結果、Co-MTPは最先端の性能を達成し、歴史と将来の融合の両方が予測に大きな恩恵をもたらすことを示した。
関連論文リスト
- V2XPnP: Vehicle-to-Everything Spatio-Temporal Fusion for Multi-Agent Perception and Prediction [43.506717060709136]
V2X(Valby-to-everything)技術は、単一車両システムにおける制約された可観測性の制限を緩和する、有望なパラダイムを提供する。
以前の研究は主に単一フレームの協調的な認識に焦点を当てていた。
本稿では,V2Xシナリオにおける時間的知覚と予測タスクと,ワンステップ・マルチ時間通信戦略に着目した。
論文 参考訳(メタデータ) (2024-12-02T18:55:34Z) - Conformal Trajectory Prediction with Multi-View Data Integration in Cooperative Driving [4.628774934971078]
軌道予測に関する現在の研究は、主にエゴ車両の搭載センサーによって収集されたデータに依存している。
V2INetは、既存の単一ビューモデルを拡張することで、マルチビューデータをモデル化するための新しい軌道予測フレームワークである。
以上の結果から,FDE(Final Displacement Error)とMR(Miss Rate)において,単一GPUを用いた優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-01T08:32:03Z) - HPNet: Dynamic Trajectory Forecasting with Historical Prediction Attention [76.37139809114274]
HPNetは、新しい動的軌道予測手法である。
逐次予測間の動的関係を自動的に符号化する履歴予測アテンションモジュールを提案する。
私たちのコードはhttps://github.com/XiaolongTang23/HPNetで利用可能です。
論文 参考訳(メタデータ) (2024-04-09T14:42:31Z) - PPAD: Iterative Interactions of Prediction and Planning for End-to-end Autonomous Driving [57.89801036693292]
PPAD(Iterative Interaction of Prediction and Planning Autonomous Driving)は、予測と計画のより良い統合を目的とした、タイムステップワイドなインタラクションである。
我々は,階層的動的キーオブジェクトに着目したego-to-agent,ego-to-map,ego-to-BEVインタラクション機構を設計し,インタラクションをモデル化する。
論文 参考訳(メタデータ) (2023-11-14T11:53:24Z) - Learning Cooperative Trajectory Representations for Motion Forecasting [4.380073528690906]
協調情報から動きと相互作用の特徴を利用するための予測指向表現パラダイムを提案する。
V2X-Graphは、協調動作予測のための解釈可能かつエンドツーエンドな特徴量融合を実現するための代表的なフレームワークである。
車両から全車まで(V2X)のシナリオを更に評価するため,V2X-Traj を用いたV2X運動予測データセットを構築した。
論文 参考訳(メタデータ) (2023-11-01T08:53:05Z) - Graph-Based Interaction-Aware Multimodal 2D Vehicle Trajectory
Prediction using Diffusion Graph Convolutional Networks [17.989423104706397]
本研究では,グラフに基づく対話型多モード軌道予測フレームワークを提案する。
このフレームワーク内では、車両の動きは時間変化グラフのノードとして概念化され、交通相互作用は動的隣接行列によって表現される。
我々は、意図特異的な特徴融合を採用し、歴史的および将来の埋め込みの適応的な統合を可能にする。
論文 参考訳(メタデータ) (2023-09-05T06:28:13Z) - FJMP: Factorized Joint Multi-Agent Motion Prediction over Learned
Directed Acyclic Interaction Graphs [8.63314005149641]
対話型運転シナリオのためのFJMP(Factized Joint Motion Prediction)フレームワークを提案する。
FJMPは、非分解的アプローチよりも正確でシーンに一貫性のある関節軌道予測を生成する。
FJMPはInterActionデータセットのマルチエージェントテストリーダーボードで1位である。
論文 参考訳(メタデータ) (2022-11-27T18:59:17Z) - End-to-end Contextual Perception and Prediction with Interaction
Transformer [79.14001602890417]
我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
論文 参考訳(メタデータ) (2020-08-13T14:30:12Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - PiP: Planning-informed Trajectory Prediction for Autonomous Driving [69.41885900996589]
マルチエージェント設定における予測問題に対処するために,計画インフォームド・トラジェクトリ予測(PiP)を提案する。
本手法は,エゴカーの計画により予測過程を通知することにより,高速道路のデータセット上でのマルチエージェント予測の最先端性能を実現する。
論文 参考訳(メタデータ) (2020-03-25T16:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。