論文の概要: V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception
- arxiv url: http://arxiv.org/abs/2403.16034v2
- Date: Mon, 16 Dec 2024 19:00:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:55:13.196727
- Title: V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception
- Title(参考訳): V2X-Real:自動車間協調認識のための大規模データセット
- Authors: Hao Xiang, Zhaoliang Zheng, Xin Xia, Runsheng Xu, Letian Gao, Zewei Zhou, Xu Han, Xinkai Ji, Mingxi Li, Zonglin Meng, Li Jin, Mingyue Lei, Zhaoyang Ma, Zihang He, Haoxuan Ma, Yunshuang Yuan, Yingqian Zhao, Jiaqi Ma,
- Abstract要約: V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
- 参考スコア(独自算出の注目度): 22.3955949838171
- License:
- Abstract: Recent advancements in Vehicle-to-Everything (V2X) technologies have enabled autonomous vehicles to share sensing information to see through occlusions, greatly boosting the perception capability. However, there are no real-world datasets to facilitate the real V2X cooperative perception research -- existing datasets either only support Vehicle-to-Infrastructure cooperation or Vehicle-to-Vehicle cooperation. In this paper, we present V2X-Real, a large-scale dataset that includes a mixture of multiple vehicles and smart infrastructure to facilitate the V2X cooperative perception development with multi-modality sensing data. Our V2X-Real is collected using two connected automated vehicles and two smart infrastructure, which are all equipped with multi-modal sensors including LiDAR sensors and multi-view cameras. The whole dataset contains 33K LiDAR frames and 171K camera data with over 1.2M annotated bounding boxes of 10 categories in very challenging urban scenarios. According to the collaboration mode and ego perspective, we derive four types of datasets for Vehicle-Centric, Infrastructure-Centric, Vehicle-to-Vehicle, and Infrastructure-to-Infrastructure cooperative perception. Comprehensive multi-class multi-agent benchmarks of SOTA cooperative perception methods are provided. The V2X-Real dataset and codebase are available at https://mobility-lab.seas.ucla.edu/v2x-real.
- Abstract(参考訳): 近年のV2X技術の進歩により、自動運転車はオクルージョンを通して感知情報を共有できるようになり、認識能力を大幅に向上した。
しかしながら、実際のV2X協調知覚研究を促進する実際のデータセットは存在しない。
本稿では,複数の車両とスマートインフラストラクチャを組み合わせた大規模データセットであるV2X-Realについて述べる。
私たちのV2X-Realは、2台の自動車両と2台のスマートインフラストラクチャを使って収集されています。
データセット全体は33KのLiDARフレームと171Kのカメラデータを含み、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
コラボレーション・モードとエゴ・パースペクティブにより,自動車中心,インフラ中心,車両から車両,インフラからインフラへの協調的知覚の4種類のデータセットを導出する。
SOTA協調認識法の総合的マルチクラスマルチエージェントベンチマークを提供する。
V2X-Realデータセットとコードベースはhttps://mobility-lab.seas.ucla.edu/v2x-realで公開されている。
関連論文リスト
- V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [45.001209388616736]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きバウンディングボックスがある。
多様な研究領域を容易にするために、協調的な知覚のためのV2X-Radar-C、道路側知覚のためのV2X-Radar-I、単車車知覚のためのV2X-Radar-Vを確立する。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception [3.10770247120758]
本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
論文 参考訳(メタデータ) (2024-09-08T05:22:00Z) - HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative [23.293162454592544]
複数レイアウトのホログラフィック交差点を構築し,HoloVICと呼ばれる大規模多センサのホログラフィック車両・赤外線協調データセットを構築した。
私たちのデータセットには3種類のセンサー(Camera, Lidar, Fisheye)が含まれています。
論文 参考訳(メタデータ) (2024-03-05T04:08:19Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Berlin V2X: A Machine Learning Dataset from Multiple Vehicles and Radio
Access Technologies [56.77079930521082]
我々は,MLに基づく多種多様な研究への道を開くための詳細な測定キャンペーンを実施してきた。
得られたデータセットは、携帯電話(と2つの異なるオペレーター)とサイドリンク無線アクセス技術の両方のために、様々な都市環境にまたがるGPS位置の無線測定を提供する。
私たちは、MLが克服しなければならない課題と、MLが活用できる機能について、データの初期分析を提供しています。
論文 参考訳(メタデータ) (2022-12-20T15:26:39Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with
Vehicle-to-Vehicle Communication [13.633468133727]
車両から車両への認識のための大規模なオープン・シミュレート・データセットを提示する。
70以上の興味深いシーン、11,464フレーム、232,913個の注釈付き3D車両のバウンディングボックスを含んでいる。
論文 参考訳(メタデータ) (2021-09-16T00:52:41Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。