論文の概要: CMP: Cooperative Motion Prediction with Multi-Agent Communication
- arxiv url: http://arxiv.org/abs/2403.17916v1
- Date: Tue, 26 Mar 2024 17:53:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 14:18:09.947155
- Title: CMP: Cooperative Motion Prediction with Multi-Agent Communication
- Title(参考訳): CMP:マルチエージェント通信による協調動作予測
- Authors: Zhuoyuan Wu, Yuping Wang, Hengbo Ma, Zhaowei Li, Hang Qiu, Jiachen Li,
- Abstract要約: 本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは、LiDAR信号を入力として、追跡と予測能力を向上する。
特に、CMPは平均予測誤差を17.2%減らし、非協調条件と比較して、検出の欠如が少ない。
- 参考スコア(独自算出の注目度): 17.003924388441956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The confluence of the advancement of Autonomous Vehicles (AVs) and the maturity of Vehicle-to-Everything (V2X) communication has enabled the capability of cooperative connected and automated vehicles (CAVs). Building on top of cooperative perception, this paper explores the feasibility and effectiveness of cooperative motion prediction. Our method, CMP, takes LiDAR signals as input to enhance tracking and prediction capabilities. Unlike previous work that focuses separately on either cooperative perception or motion prediction, our framework, to the best of our knowledge, is the first to address the unified problem where CAVs share information in both perception and prediction modules. Incorporated into our design is the unique capability to tolerate realistic V2X bandwidth limitations and transmission delays, while dealing with bulky perception representations. We also propose a prediction aggregation module, which unifies the predictions obtained by different CAVs and generates the final prediction. Through extensive experiments and ablation studies, we demonstrate the effectiveness of our method in cooperative perception, tracking, and motion prediction tasks. In particular, CMP reduces the average prediction error by 17.2\% with fewer missing detections compared with the no cooperation setting. Our work marks a significant step forward in the cooperative capabilities of CAVs, showcasing enhanced performance in complex scenarios.
- Abstract(参考訳): 自動運転車(AV)の進歩とV2X通信の成熟により、コラボレーティブ・コネクテッド・アンド・オートマチック・ビークル(CAV)の能力が向上した。
本稿では,協調的知覚を基盤として,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは、LiDAR信号を入力として、追跡と予測能力を向上する。
協調的知覚と運動予測を別々に扱う従来の研究とは異なり、我々の枠組みは、私たちの知識の最高のところにおいて、CAVが知覚と予測モジュールの両方で情報を共有する統一的な問題に最初に対処するものである。
我々の設計に組み込まれているのは、偏見表現を扱いながら、現実的なV2X帯域制限と伝送遅延を許容するユニークな能力である。
また,異なるCAVから得られた予測を統一し,最終的な予測を生成する予測集約モジュールを提案する。
広範囲な実験とアブレーション研究を通じて,協調的知覚,追跡,動作予測タスクにおける本手法の有効性を実証した。
特に、CMPは、非協調条件と比較して、検出の欠如が少ないため、平均予測誤差を17.2\%削減する。
我々の研究は、複雑なシナリオにおけるパフォーマンスの向上を示すCAVの協調的能力において、大きな前進を示す。
関連論文リスト
- Conformal Trajectory Prediction with Multi-View Data Integration in Cooperative Driving [4.628774934971078]
軌道予測に関する現在の研究は、主にエゴ車両の搭載センサーによって収集されたデータに依存している。
V2INetは、既存の単一ビューモデルを拡張することで、マルチビューデータをモデル化するための新しい軌道予測フレームワークである。
以上の結果から,FDE(Final Displacement Error)とMR(Miss Rate)において,単一GPUを用いた優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-01T08:32:03Z) - What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - SmartCooper: Vehicular Collaborative Perception with Adaptive Fusion and
Judger Mechanism [23.824400533836535]
通信最適化と判断機構を組み込んだ適応型協調認識フレームワークであるSmartCooperを紹介する。
以上の結果から,非ジュッジャー方式に比べて通信コストが23.10%大幅に削減された。
論文 参考訳(メタデータ) (2024-02-01T04:15:39Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - IPCC-TP: Utilizing Incremental Pearson Correlation Coefficient for Joint
Multi-Agent Trajectory Prediction [73.25645602768158]
IPCC-TPはインクリメンタルピアソン相関係数に基づく新しい関連認識モジュールであり,マルチエージェントインタラクションモデリングを改善する。
我々のモジュールは、既存のマルチエージェント予測手法に便利に組み込んで、元の動き分布デコーダを拡張することができる。
論文 参考訳(メタデータ) (2023-03-01T15:16:56Z) - Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds [0.0]
協調認識により、コネクテッド・オートモービルは近隣の他のCAVと対話することができる。
盲点、低解像度、気象効果などの従来の車体知覚の限界を補うことができる。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
論文 参考訳(メタデータ) (2022-07-30T01:53:05Z) - Collaborative Uncertainty in Multi-Agent Trajectory Forecasting [35.013892666040846]
本稿では,対話モジュールから生じる不確実性をモデル化する新しい概念であるコラボレーティブ不確実性(CU)を提案する。
我々は、将来の軌跡とそれに対応する不確実性を学ぶための予測モデルを構築するための一般的なCUベースのフレームワークを構築した。
いずれの場合も、2つの合成データセットと2つの大規模軌跡予測ベンチマークについて広範な実験を行う。
論文 参考訳(メタデータ) (2021-10-26T18:27:22Z) - Online Multi-Agent Forecasting with Interpretable Collaborative Graph
Neural Network [65.11999700562869]
複数の協調予測器からの予測を協調グラフに従って集約する新しい協調予測ユニット(CoPU)を提案する。
本手法は,3つのタスクの最先端処理を平均28.6%,17.4%,21.0%で上回っている。
論文 参考訳(メタデータ) (2021-07-02T08:20:06Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。