論文の概要: Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception
- arxiv url: http://arxiv.org/abs/2409.04980v1
- Date: Sun, 8 Sep 2024 05:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 19:50:12.202185
- Title: Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception
- Title(参考訳): Multi-V2X:協調知覚のための大規模マルチモーダルマルチペネレーションレートデータセット
- Authors: Rongsong Li, Xin Pei,
- Abstract要約: 本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
- 参考スコア(独自算出の注目度): 3.10770247120758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception through vehicle-to-everything (V2X) has garnered significant attention in recent years due to its potential to overcome occlusions and enhance long-distance perception. Great achievements have been made in both datasets and algorithms. However, existing real-world datasets are limited by the presence of few communicable agents, while synthetic datasets typically cover only vehicles. More importantly, the penetration rate of connected and autonomous vehicles (CAVs) , a critical factor for the deployment of cooperative perception technologies, has not been adequately addressed. To tackle these issues, we introduce Multi-V2X, a large-scale, multi-modal, multi-penetration-rate dataset for V2X perception. By co-simulating SUMO and CARLA, we equip a substantial number of cars and roadside units (RSUs) in simulated towns with sensor suites, and collect comprehensive sensing data. Datasets with specified CAV penetration rates can be obtained by masking some equipped cars as normal vehicles. In total, our Multi-V2X dataset comprises 549k RGB frames, 146k LiDAR frames, and 4,219k annotated 3D bounding boxes across six categories. The highest possible CAV penetration rate reaches 86.21%, with up to 31 agents in communication range, posing new challenges in selecting agents to collaborate with. We provide comprehensive benchmarks for cooperative 3D object detection tasks. Our data and code are available at https://github.com/RadetzkyLi/Multi-V2X .
- Abstract(参考訳): 車間コミュニケーション(V2X)による協調的知覚は, 咬合を克服し, 長距離知覚を高める可能性から近年, 注目されている。
データセットとアルゴリズムの両方で大きな成果が得られています。
しかし、既存の実世界のデータセットは通信可能なエージェントがほとんど存在しないため制限されている。
さらに,コネクテッド・自動運転車(CAV)の浸透速度は,協調認識技術の展開に欠かせない要因である。
これらの問題に対処するため、V2X知覚のための大規模マルチモーダルマルチペネティフィケーションレートデータセットであるMulti-V2Xを導入する。
SuMO と CARLA を併用することにより,センサスイートを用いたシミュレーション街において,かなりの数の車や道路側ユニット(RSU)を配置し,総合的なセンシングデータを収集する。
特定のCAV侵入率のデータセットは、一部の装備車両を通常の車両として隠蔽することで得られる。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、および6つのカテゴリにわたる4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に最大31のエージェントがおり、協力するエージェントを選択する際の新たな課題となっている。
協調的な3Dオブジェクト検出タスクのための総合的なベンチマークを提供する。
私たちのデータとコードはhttps://github.com/RadetzkyLi/Multi-V2X で公開されています。
関連論文リスト
- WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - V2X-Real: a Largs-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
本稿では,V2X協調認識開発を促進するために,複数の車両とスマートインフラストラクチャを同時に組み合わせたデータセットを提案する。
V2X-Realは、2つの接続された自動車両と2つのスマートインフラストラクチャを使用して収集される。
データセット全体は33KのLiDARフレームと171Kのカメラデータを含み、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Berlin V2X: A Machine Learning Dataset from Multiple Vehicles and Radio
Access Technologies [56.77079930521082]
我々は,MLに基づく多種多様な研究への道を開くための詳細な測定キャンペーンを実施してきた。
得られたデータセットは、携帯電話(と2つの異なるオペレーター)とサイドリンク無線アクセス技術の両方のために、様々な都市環境にまたがるGPS位置の無線測定を提供する。
私たちは、MLが克服しなければならない課題と、MLが活用できる機能について、データの初期分析を提供しています。
論文 参考訳(メタデータ) (2022-12-20T15:26:39Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection [8.681912341444901]
DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
論文 参考訳(メタデータ) (2022-04-12T07:13:33Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。