論文の概要: End-to-End Autonomous Driving through V2X Cooperation
- arxiv url: http://arxiv.org/abs/2404.00717v2
- Date: Sat, 20 Apr 2024 02:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 22:55:04.693260
- Title: End-to-End Autonomous Driving through V2X Cooperation
- Title(参考訳): V2X連携によるエンド・ツー・エンド自動運転
- Authors: Haibao Yu, Wenxian Yang, Jiaru Zhong, Zhenwei Yang, Siqi Fan, Ping Luo, Zaiqing Nie,
- Abstract要約: 先駆的な協調自動運転フレームワークUniV2Xを紹介する。
UniV2Xは様々なビューにまたがるすべてのキー駆動モジュールをシームレスに統合ネットワークに統合する。
- 参考スコア(独自算出の注目度): 23.44597411612664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperatively utilizing both ego-vehicle and infrastructure sensor data via V2X communication has emerged as a promising approach for advanced autonomous driving. However, current research mainly focuses on improving individual modules, rather than taking end-to-end learning to optimize final planning performance, resulting in underutilized data potential. In this paper, we introduce UniV2X, a pioneering cooperative autonomous driving framework that seamlessly integrates all key driving modules across diverse views into a unified network. We propose a sparse-dense hybrid data transmission and fusion mechanism for effective vehicle-infrastructure cooperation, offering three advantages: 1) Effective for simultaneously enhancing agent perception, online mapping, and occupancy prediction, ultimately improving planning performance. 2) Transmission-friendly for practical and limited communication conditions. 3) Reliable data fusion with interpretability of this hybrid data. We implement UniV2X, as well as reproducing several benchmark methods, on the challenging DAIR-V2X, the real-world cooperative driving dataset. Experimental results demonstrate the effectiveness of UniV2X in significantly enhancing planning performance, as well as all intermediate output performance. Code is at https://github.com/AIR-THU/UniV2X.
- Abstract(参考訳): 先進的な自律運転のための有望なアプローチとして,自走車とV2X通信によるインフラセンサデータの協調利用が出現している。
しかし、現在の研究では、最終的な計画性能を最適化するためにエンドツーエンドの学習を採用するのではなく、個々のモジュールの改善に重点を置いている。
本稿では,UniV2Xについて紹介する。UniV2Xは,多様なビューにまたがる全てのキー駆動モジュールをシームレスに統合し,統合されたネットワークに組み込む,先駆的な自律運転フレームワークである。
車両とインフラの効果的な連携のための疎密度ハイブリッドデータ伝送と融合機構を提案し,その利点を3つ挙げる。
1) エージェント認識, オンラインマッピング, 占有率予測を同時に強化し, 最終的に計画性能を向上する。
2)実用的・限られた通信条件に優しい送信システム。
3) このハイブリッドデータの解釈可能性を備えた信頼性のあるデータ融合。
我々は、実際の協調運転データセットであるDAIR-V2Xに挑戦する上で、UniV2Xといくつかのベンチマークメソッドを再現する。
実験の結果,UniV2Xは計画性能と中間出力性能を大幅に向上させることができた。
コードはhttps://github.com/AIR-THU/UniV2Xにある。
関連論文リスト
- CooPre: Cooperative Pretraining for V2X Cooperative Perception [47.00472259100765]
本稿では,V2X協調認識のための自己教師付き学習手法を提案する。
膨大な量のラベルのない3D V2Xデータを用いて知覚性能を向上させる。
論文 参考訳(メタデータ) (2024-08-20T23:39:26Z) - Conformal Trajectory Prediction with Multi-View Data Integration in Cooperative Driving [4.628774934971078]
軌道予測に関する現在の研究は、主にエゴ車両の搭載センサーによって収集されたデータに依存している。
V2INetは、既存の単一ビューモデルを拡張することで、マルチビューデータをモデル化するための新しい軌道予測フレームワークである。
以上の結果から,FDE(Final Displacement Error)とMR(Miss Rate)において,単一GPUを用いた優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-01T08:32:03Z) - Hybrid-Generative Diffusion Models for Attack-Oriented Twin Migration in Vehicular Metaverses [58.264499654343226]
Vehicle Twins (VTs) は、Vehicular Metaverse Users (VMUs) 向けに没入型仮想サービスを提供するデジタルツインである。
車両の高モビリティ、エッジサーバの不均一なデプロイ、潜在的なセキュリティ脅威は、効率的で信頼性の高いVTマイグレーションを実現する上での課題である。
車両メタバースにおけるセキュアで信頼性の高いVTマイグレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T11:11:33Z) - Unified End-to-End V2X Cooperative Autonomous Driving [21.631099800753795]
UniE2EV2Xは、V2Xに統合されたエンドツーエンドの自動運転システムで、主要な駆動モジュールを統合ネットワーク内で統合する。
このフレームワークは変形可能な注意ベースのデータ融合戦略を採用し、車とインフラの協調を効果的に促進する。
We implement the UniE2EV2X framework on the challenge DeepAccident, a simulation dataset designed for V2X collaborative driving。
論文 参考訳(メタデータ) (2024-05-07T03:01:40Z) - Towards Collaborative Autonomous Driving: Simulation Platform and End-to-End System [35.447617290190294]
自動運転車(V2X-AD)は、より安全な運転ソリューションを提供する大きな可能性を秘めている。
本稿では,協調自動運転のための総合シミュレーションプラットフォームであるV2Xverseを紹介する。
私たちは、新しいエンドツーエンドのコラボレーティブドライブシステムであるCoDrivingを紹介します。
論文 参考訳(メタデータ) (2024-04-15T06:33:32Z) - Learning Cooperative Trajectory Representations for Motion Forecasting [4.380073528690906]
協調情報から動きと相互作用の特徴を利用するための予測指向表現パラダイムを提案する。
V2X-Graphは、協調動作予測のための解釈可能かつエンドツーエンドな特徴量融合を実現するための代表的なフレームワークである。
車両から全車まで(V2X)のシナリオを更に評価するため,V2X-Traj を用いたV2X運動予測データセットを構築した。
論文 参考訳(メタデータ) (2023-11-01T08:53:05Z) - FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels [57.05834683261658]
FSDv2は、手作りのインスタンスレベルの表現によって引き起こされる帰納バイアスを排除しつつ、以前のFSDv1を単純化することを目的とした進化である。
仮想ボクセルエンコーダ,仮想ボクセルミキサー,仮想ボクセル割り当て戦略など,仮想ボクセル概念を補完するコンポーネント群を開発した。
論文 参考訳(メタデータ) (2023-08-07T17:59:48Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。