論文の概要: Learning Cooperative Trajectory Representations for Motion Forecasting
- arxiv url: http://arxiv.org/abs/2311.00371v1
- Date: Wed, 1 Nov 2023 08:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:20:21.177248
- Title: Learning Cooperative Trajectory Representations for Motion Forecasting
- Title(参考訳): 運動予測のための協調軌道表現の学習
- Authors: Hongzhi Ruan, Haibao Yu, Wenxian Yang, Siqi Fan, Yingjuan Tang,
Zaiqing Nie
- Abstract要約: V2X-Graphは,協調動作予測のための最初の対話型・エンドツーエンド学習フレームワークである。
V2X-Graphは、協調的な動きと相互作用の文脈を完全に活用するために解釈可能なグラフを使用する。
我々は、V2X(V2X)モーション予測データセットを構築した。
- 参考スコア(独自算出の注目度): 4.380073528690906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion forecasting is an essential task for autonomous driving, and the
effective information utilization from infrastructure and other vehicles can
enhance motion forecasting capabilities. Existing research have primarily
focused on leveraging single-frame cooperative information to enhance the
limited perception capability of the ego vehicle, while underutilizing the
motion and interaction information of traffic participants observed from
cooperative devices. In this paper, we first propose the cooperative trajectory
representations learning paradigm. Specifically, we present V2X-Graph, the
first interpretable and end-to-end learning framework for cooperative motion
forecasting. V2X-Graph employs an interpretable graph to fully leverage the
cooperative motion and interaction contexts. Experimental results on the
vehicle-to-infrastructure (V2I) motion forecasting dataset, V2X-Seq,
demonstrate the effectiveness of V2X-Graph. To further evaluate on V2X
scenario, we construct the first real-world vehicle-to-everything (V2X) motion
forecasting dataset V2X-Traj, and the performance shows the advantage of our
method. We hope both V2X-Graph and V2X-Traj can facilitate the further
development of cooperative motion forecasting. Find project at
https://github.com/AIR-THU/V2X-Graph, find data at
https://github.com/AIR-THU/DAIR-V2X-Seq.
- Abstract(参考訳): 動き予測は自動運転にとって必須のタスクであり、インフラや他の車両からの効果的な情報利用は、動き予測能力を高めることができる。
既存の研究は主に、単一フレームの協調情報を活用してエゴ車両の限られた知覚能力を高めるとともに、協調装置から観測された交通参加者の移動情報と相互作用情報の活用に重点を置いている。
本稿では,まず,協調軌道表現学習パラダイムを提案する。
具体的には、協調動作予測のための最初の解釈可能なエンドツーエンド学習フレームワークであるV2X-Graphを提案する。
V2X-Graphは、協調動作と相互作用コンテキストを完全に活用するために解釈可能なグラフを使用する。
車対インフラ(v2i)運動予測データセットv2x-seqの実験結果は,v2x-graphの有効性を示している。
V2Xシナリオを更に評価するために,V2X-Traj の移動予測データセットを構築し,本手法の利点を示す。
V2X-GraphとV2X-Trajの両方が協調動作予測のさらなる発展を促進することを願っている。
https://github.com/AIR-THU/V2X-Graphでプロジェクトを見つけ、https://github.com/AIR-THU/DAIR-V2X-Seqでデータを見つける。
関連論文リスト
- End-to-End Autonomous Driving through V2X Cooperation [23.44597411612664]
先駆的な協調自動運転フレームワークUniV2Xを紹介する。
UniV2Xは様々なビューにまたがるすべてのキー駆動モジュールをシームレスに統合ネットワークに統合する。
論文 参考訳(メタデータ) (2024-03-31T15:22:11Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - D2-TPred: Discontinuous Dependency for Trajectory Prediction under
Traffic Lights [68.76631399516823]
本稿では,空間的動的相互作用グラフ(SDG)と行動依存グラフ(BDG)を用いて,交通信号に対する軌道予測手法D2-TPredを提案する。
実験の結果,VTP-TLではADEとFDEでそれぞれ20.45%,20.78%以上を達成できた。
論文 参考訳(メタデータ) (2022-07-21T10:19:07Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Unboxing the graph: Neural Relational Inference for Mobility Prediction [15.4049962498675]
グラフネットワーク(GNN)は、非ユークリッド空間データに広く応用されている。
本稿では,最適グラフモデルを動的に学習するニューラル推論を用いる。
論文 参考訳(メタデータ) (2022-01-25T13:26:35Z) - Visual Relationship Forecasting in Videos [56.122037294234865]
本稿では,視覚関係予測(Visual Relation Forecasting:VRF)というタスクをビデオに提示する。
Hフレームと対象オブジェクトのペアを与えられたVRFは、視覚的な証拠なしに次のTフレームに対する将来の相互作用を予測することを目的としている。
VRFタスクを評価するために,VRF-AGとVRF-VidORという2つのビデオデータセットを導入する。
論文 参考訳(メタデータ) (2021-07-02T16:43:19Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Graph Convolution Machine for Context-aware Recommender System [59.50474932860843]
グラフ畳み込みの利点を文脈認識推薦システム(CARS)に拡張する。
我々は、エンコーダ、グラフ畳み込み層、デコーダの3つのコンポーネントからなるエンドツーエンドフレームワークである textitGraph Convolution Machine (GCM) を提案する。
我々はYelpとAmazonの3つの実世界のデータセットで実験を行い、GCMの有効性とCARSのためのグラフ畳み込みの利点を検証する。
論文 参考訳(メタデータ) (2020-01-30T15:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。