論文の概要: End-to-End Autonomous Driving through V2X Cooperation
- arxiv url: http://arxiv.org/abs/2404.00717v1
- Date: Sun, 31 Mar 2024 15:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 02:11:04.511218
- Title: End-to-End Autonomous Driving through V2X Cooperation
- Title(参考訳): V2X連携によるエンド・ツー・エンド自動運転
- Authors: Haibao Yu, Wenxian Yang, Jiaru Zhong, Zhenwei Yang, Siqi Fan, Ping Luo, Zaiqing Nie,
- Abstract要約: 先駆的な協調自動運転フレームワークUniV2Xを紹介する。
UniV2Xは様々なビューにまたがるすべてのキー駆動モジュールをシームレスに統合ネットワークに統合する。
- 参考スコア(独自算出の注目度): 23.44597411612664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cooperatively utilizing both ego-vehicle and infrastructure sensor data via V2X communication has emerged as a promising approach for advanced autonomous driving. However, current research mainly focuses on improving individual modules, rather than taking end-to-end learning to optimize final planning performance, resulting in underutilized data potential. In this paper, we introduce UniV2X, a pioneering cooperative autonomous driving framework that seamlessly integrates all key driving modules across diverse views into a unified network. We propose a sparse-dense hybrid data transmission and fusion mechanism for effective vehicle-infrastructure cooperation, offering three advantages: 1) Effective for simultaneously enhancing agent perception, online mapping, and occupancy prediction, ultimately improving planning performance. 2) Transmission-friendly for practical and limited communication conditions. 3) Reliable data fusion with interpretability of this hybrid data. We implement UniV2X, as well as reproducing several benchmark methods, on the challenging DAIR-V2X, the real-world cooperative driving dataset. Experimental results demonstrate the effectiveness of UniV2X in significantly enhancing planning performance, as well as all intermediate output performance. Code is at https://github.com/AIR-THU/UniV2X.
- Abstract(参考訳): 先進的な自律運転のための有望なアプローチとして,自走車とV2X通信によるインフラセンサデータの協調利用が出現している。
しかし、現在の研究では、最終的な計画性能を最適化するためにエンドツーエンドの学習を採用するのではなく、個々のモジュールの改善に重点を置いている。
本稿では,UniV2Xについて紹介する。UniV2Xは,多様なビューにまたがる全てのキー駆動モジュールをシームレスに統合し,統合されたネットワークに組み込む,先駆的な自律運転フレームワークである。
車両とインフラの効果的な連携のための疎密度ハイブリッドデータ伝送と融合機構を提案し,その利点を3つ挙げる。
1) エージェント認識, オンラインマッピング, 占有率予測を同時に強化し, 最終的に計画性能を向上する。
2)実用的・限られた通信条件に優しい送信システム。
3) このハイブリッドデータの解釈可能性を備えた信頼性のあるデータ融合。
我々は、実際の協調運転データセットであるDAIR-V2Xに挑戦する上で、UniV2Xといくつかのベンチマークメソッドを再現する。
実験の結果,UniV2Xは計画性能と中間出力性能を大幅に向上させることができた。
コードはhttps://github.com/AIR-THU/UniV2Xにある。
関連論文リスト
- Unified End-to-End V2X Cooperative Autonomous Driving [21.631099800753795]
UniE2EV2Xは、V2Xに統合されたエンドツーエンドの自動運転システムで、主要な駆動モジュールを統合ネットワーク内で統合する。
このフレームワークは変形可能な注意ベースのデータ融合戦略を採用し、車とインフラの協調を効果的に促進する。
We implement the UniE2EV2X framework on the challenge DeepAccident, a simulation dataset designed for V2X collaborative driving。
論文 参考訳(メタデータ) (2024-05-07T03:01:40Z) - Towards Collaborative Autonomous Driving: Simulation Platform and End-to-End System [35.447617290190294]
自動運転車(V2X-AD)は、より安全な運転ソリューションを提供する大きな可能性を秘めている。
本稿では,協調自動運転のための総合シミュレーションプラットフォームであるV2Xverseを紹介する。
私たちは、新しいエンドツーエンドのコラボレーティブドライブシステムであるCoDrivingを紹介します。
論文 参考訳(メタデータ) (2024-04-15T06:33:32Z) - Learning Cooperative Trajectory Representations for Motion Forecasting [4.380073528690906]
V2X-Graphは,協調動作予測のための最初の対話型・エンドツーエンド学習フレームワークである。
V2X-Graphは、協調的な動きと相互作用の文脈を完全に活用するために解釈可能なグラフを使用する。
我々は、V2X(V2X)モーション予測データセットを構築した。
論文 参考訳(メタデータ) (2023-11-01T08:53:05Z) - FSD V2: Improving Fully Sparse 3D Object Detection with Virtual Voxels [57.05834683261658]
FSDv2は、手作りのインスタンスレベルの表現によって引き起こされる帰納バイアスを排除しつつ、以前のFSDv1を単純化することを目的とした進化である。
仮想ボクセルエンコーダ,仮想ボクセルミキサー,仮想ボクセル割り当て戦略など,仮想ボクセル概念を補完するコンポーネント群を開発した。
論文 参考訳(メタデータ) (2023-08-07T17:59:48Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Value Function is All You Need: A Unified Learning Framework for Ride
Hailing Platforms [57.21078336887961]
DiDi、Uber、Lyftなどの大型配車プラットフォームは、都市内の数万台の車両を1日中数百万の乗車要求に接続している。
両課題に対処するための統合価値に基づく動的学習フレームワーク(V1D3)を提案する。
論文 参考訳(メタデータ) (2021-05-18T19:22:24Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。