論文の概要: M3CAD: Towards Generic Cooperative Autonomous Driving Benchmark
- arxiv url: http://arxiv.org/abs/2505.06746v1
- Date: Sat, 10 May 2025 19:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.022413
- Title: M3CAD: Towards Generic Cooperative Autonomous Driving Benchmark
- Title(参考訳): M3CAD: ジェネリックコラボレーティブ自律運転ベンチマークを目指して
- Authors: Morui Zhu, Yongqi Zhu, Yihao Zhu, Qi Chen, Deyuan Qu, Song Fu, Qing Yang,
- Abstract要約: M$3$CADは、30kフレームの204のシーケンスで構成され、多様な協調運転シナリオにまたがる。
このリッチなマルチモーダル構成により、M$3$CADは単車と多車の両方の自動運転研究をサポートすることができる。
- 参考スコア(独自算出の注目度): 8.160067673559126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce M$^3$CAD, a novel benchmark designed to advance research in generic cooperative autonomous driving. M$^3$CAD comprises 204 sequences with 30k frames, spanning a diverse range of cooperative driving scenarios. Each sequence includes multiple vehicles and sensing modalities, e.g., LiDAR point clouds, RGB images, and GPS/IMU, supporting a variety of autonomous driving tasks, including object detection and tracking, mapping, motion forecasting, occupancy prediction, and path planning. This rich multimodal setup enables M$^3$CAD to support both single-vehicle and multi-vehicle autonomous driving research, significantly broadening the scope of research in the field. To our knowledge, M$^3$CAD is the most comprehensive benchmark specifically tailored for cooperative multi-task autonomous driving research. We evaluate the state-of-the-art end-to-end solution on M$^3$CAD to establish baseline performance. To foster cooperative autonomous driving research, we also propose E2EC, a simple yet effective framework for cooperative driving solution that leverages inter-vehicle shared information for improved path planning. We release M$^3$CAD, along with our baseline models and evaluation results, to support the development of robust cooperative autonomous driving systems. All resources will be made publicly available on https://github.com/zhumorui/M3CAD
- Abstract(参考訳): M$^3$CADは、総合的協調自律運転の研究を進めるために設計された新しいベンチマークである。
M$^3$CADは、30kフレームを持つ204のシーケンスで構成され、多様な協調運転シナリオにまたがる。
各シーケンスには、例えば、LiDARポイントクラウド、RGBイメージ、GPS/IMUなど、複数の車両とセンサーモードが含まれており、オブジェクトの検出と追跡、マッピング、モーション予測、占有率予測、経路計画など、さまざまな自律運転タスクをサポートしている。
このリッチなマルチモーダル構成により、M$^3$CADは単車と多車の両方の自動運転研究をサポートし、この分野の研究範囲を大きく広げることができる。
我々の知る限り、M$^3$CADは、協調マルチタスク自動運転研究に適した、最も包括的なベンチマークである。
我々は,M$^3$CAD上での最先端のエンドツーエンドソリューションを評価し,ベースライン性能を確立する。
また、協調運転研究を促進するために、車間共有情報を活用して経路計画を改善する、シンプルかつ効果的な協調運転ソリューションフレームワークであるE2ECを提案する。
我々はM$^3$CADをベースラインモデルと評価結果とともにリリースし、ロバストな自律運転システムの開発を支援する。
すべてのリソースはhttps://github.com/zhumorui/M3CADで公開されます。
関連論文リスト
- The Role of World Models in Shaping Autonomous Driving: A Comprehensive Survey [50.62538723793247]
ドライビング・ワールド・モデル(DWM)は、ドライビング・プロセス中のシーンの進化を予測することに焦点を当てている。
DWM法は、自律運転システムが動的運転環境をよりよく知覚し、理解し、相互作用することを可能にする。
論文 参考訳(メタデータ) (2025-02-14T18:43:15Z) - V2V-LLM: Vehicle-to-Vehicle Cooperative Autonomous Driving with Multi-Modal Large Language Models [31.537045261401666]
本稿では,多モード大規模言語モデルと協調自律運転を統合した新しい問題設定を提案する。
また,V2V-LLM(V2V-LLM)のベースライン手法を提案する。
実験結果から,提案するV2V-LLMは,協調運転における様々なタスクを遂行する上で,有望な統一モデルアーキテクチャとなる可能性が示唆された。
論文 参考訳(メタデータ) (2025-02-14T08:05:41Z) - WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - UniM$^2$AE: Multi-modal Masked Autoencoders with Unified 3D Representation for 3D Perception in Autonomous Driving [47.590099762244535]
Masked Autoencoders (MAE)は、強力な表現の学習において重要な役割を担い、様々な3D知覚タスクにおいて優れた結果をもたらす。
この研究は、自律運転における統一された表現空間に適したマルチモーダルのMasked Autoencodersに展開する。
画像に固有のセマンティクスとLiDAR点雲の幾何学的複雑さを複雑に結合するため,UniM$2$AEを提案する。
論文 参考訳(メタデータ) (2023-08-21T02:13:40Z) - End-to-end Interpretable Neural Motion Planner [78.69295676456085]
複雑な都市環境での自律走行学習のためのニューラルモーションプランナー(NMP)を提案する。
我々は,生lidarデータとhdマップを入力とし,解釈可能な中間表現を生成する全体モデルを設計した。
北米のいくつかの都市で収集された実世界の運転データにおける我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-01-17T14:16:12Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。