論文の概要: Learning Cooperative Trajectory Representations for Motion Forecasting
- arxiv url: http://arxiv.org/abs/2311.00371v1
- Date: Wed, 1 Nov 2023 08:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:20:21.177248
- Title: Learning Cooperative Trajectory Representations for Motion Forecasting
- Title(参考訳): 運動予測のための協調軌道表現の学習
- Authors: Hongzhi Ruan, Haibao Yu, Wenxian Yang, Siqi Fan, Yingjuan Tang,
Zaiqing Nie
- Abstract要約: V2X-Graphは,協調動作予測のための最初の対話型・エンドツーエンド学習フレームワークである。
V2X-Graphは、協調的な動きと相互作用の文脈を完全に活用するために解釈可能なグラフを使用する。
我々は、V2X(V2X)モーション予測データセットを構築した。
- 参考スコア(独自算出の注目度): 4.380073528690906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion forecasting is an essential task for autonomous driving, and the
effective information utilization from infrastructure and other vehicles can
enhance motion forecasting capabilities. Existing research have primarily
focused on leveraging single-frame cooperative information to enhance the
limited perception capability of the ego vehicle, while underutilizing the
motion and interaction information of traffic participants observed from
cooperative devices. In this paper, we first propose the cooperative trajectory
representations learning paradigm. Specifically, we present V2X-Graph, the
first interpretable and end-to-end learning framework for cooperative motion
forecasting. V2X-Graph employs an interpretable graph to fully leverage the
cooperative motion and interaction contexts. Experimental results on the
vehicle-to-infrastructure (V2I) motion forecasting dataset, V2X-Seq,
demonstrate the effectiveness of V2X-Graph. To further evaluate on V2X
scenario, we construct the first real-world vehicle-to-everything (V2X) motion
forecasting dataset V2X-Traj, and the performance shows the advantage of our
method. We hope both V2X-Graph and V2X-Traj can facilitate the further
development of cooperative motion forecasting. Find project at
https://github.com/AIR-THU/V2X-Graph, find data at
https://github.com/AIR-THU/DAIR-V2X-Seq.
- Abstract(参考訳): 動き予測は自動運転にとって必須のタスクであり、インフラや他の車両からの効果的な情報利用は、動き予測能力を高めることができる。
既存の研究は主に、単一フレームの協調情報を活用してエゴ車両の限られた知覚能力を高めるとともに、協調装置から観測された交通参加者の移動情報と相互作用情報の活用に重点を置いている。
本稿では,まず,協調軌道表現学習パラダイムを提案する。
具体的には、協調動作予測のための最初の解釈可能なエンドツーエンド学習フレームワークであるV2X-Graphを提案する。
V2X-Graphは、協調動作と相互作用コンテキストを完全に活用するために解釈可能なグラフを使用する。
車対インフラ(v2i)運動予測データセットv2x-seqの実験結果は,v2x-graphの有効性を示している。
V2Xシナリオを更に評価するために,V2X-Traj の移動予測データセットを構築し,本手法の利点を示す。
V2X-GraphとV2X-Trajの両方が協調動作予測のさらなる発展を促進することを願っている。
https://github.com/AIR-THU/V2X-Graphでプロジェクトを見つけ、https://github.com/AIR-THU/DAIR-V2X-Seqでデータを見つける。
関連論文リスト
- CooPre: Cooperative Pretraining for V2X Cooperative Perception [47.00472259100765]
本稿では,V2X協調認識のための自己教師付き学習手法を提案する。
膨大な量のラベルのない3D V2Xデータを用いて知覚性能を向上させる。
論文 参考訳(メタデータ) (2024-08-20T23:39:26Z) - Conformal Trajectory Prediction with Multi-View Data Integration in Cooperative Driving [4.628774934971078]
軌道予測に関する現在の研究は、主にエゴ車両の搭載センサーによって収集されたデータに依存している。
V2INetは、既存の単一ビューモデルを拡張することで、マルチビューデータをモデル化するための新しい軌道予測フレームワークである。
以上の結果から,FDE(Final Displacement Error)とMR(Miss Rate)において,単一GPUを用いた優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-01T08:32:03Z) - End-to-End Autonomous Driving through V2X Cooperation [23.44597411612664]
先駆的な協調自動運転フレームワークUniV2Xを紹介する。
UniV2Xは様々なビューにまたがるすべてのキー駆動モジュールをシームレスに統合ネットワークに統合する。
論文 参考訳(メタデータ) (2024-03-31T15:22:11Z) - Vanishing-Point-Guided Video Semantic Segmentation of Driving Scenes [70.08318779492944]
私たちは、より効果的なセグメンテーションのために消滅点(VP)を最初に利用しました。
当社の新しいVSS用ネットワークであるVPSegには,この静的および動的VPプリエントを正確に利用する2つのモジュールが組み込まれています。
論文 参考訳(メタデータ) (2024-01-27T01:01:58Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Visual Relationship Forecasting in Videos [56.122037294234865]
本稿では,視覚関係予測(Visual Relation Forecasting:VRF)というタスクをビデオに提示する。
Hフレームと対象オブジェクトのペアを与えられたVRFは、視覚的な証拠なしに次のTフレームに対する将来の相互作用を予測することを目的としている。
VRFタスクを評価するために,VRF-AGとVRF-VidORという2つのビデオデータセットを導入する。
論文 参考訳(メタデータ) (2021-07-02T16:43:19Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。