論文の概要: CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios
- arxiv url: http://arxiv.org/abs/2511.11168v1
- Date: Fri, 14 Nov 2025 11:07:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.549984
- Title: CATS-V2V: A Real-World Vehicle-to-Vehicle Cooperative Perception Dataset with Complex Adverse Traffic Scenarios
- Title(参考訳): CATS-V2V:複雑な逆交通シナリオを用いた車車間協調知覚データセット
- Authors: Hangyu Li, Bofeng Cao, Zhaohui Liang, Wuzhen Li, Juyoung Oh, Yuxuan Chen, Shixiao Liang, Hang Zhou, Chengyuan Ma, Jiaxi Liu, Zheng Li, Peng Zhang, KeKe Long, Maolin Liu, Jackson Jiang, Chunlei Yu, Shengxiang Liu, Hongkai Yu, Xiaopeng Li,
- Abstract要約: 本稿では,複雑な交通シナリオ下でのV2V協調認識のための,最初の実世界のデータセットであるCATS-V2Vを紹介する。
100クリップのデータセットには、10HzのLiDAR点雲の60Kフレームと、1.26Mのマルチビュー30Hzカメライメージが含まれている。
そこで本研究では,すべての物体が全センサモードで正確に整列されていることを保証し,目標に基づく時間アライメント手法を提案する。
- 参考スコア(独自算出の注目度): 25.181569981722976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle-to-Vehicle (V2V) cooperative perception has great potential to enhance autonomous driving performance by overcoming perception limitations in complex adverse traffic scenarios (CATS). Meanwhile, data serves as the fundamental infrastructure for modern autonomous driving AI. However, due to stringent data collection requirements, existing datasets focus primarily on ordinary traffic scenarios, constraining the benefits of cooperative perception. To address this challenge, we introduce CATS-V2V, the first-of-its-kind real-world dataset for V2V cooperative perception under complex adverse traffic scenarios. The dataset was collected by two hardware time-synchronized vehicles, covering 10 weather and lighting conditions across 10 diverse locations. The 100-clip dataset includes 60K frames of 10 Hz LiDAR point clouds and 1.26M multi-view 30 Hz camera images, along with 750K anonymized yet high-precision RTK-fixed GNSS and IMU records. Correspondingly, we provide time-consistent 3D bounding box annotations for objects, as well as static scenes to construct a 4D BEV representation. On this basis, we propose a target-based temporal alignment method, ensuring that all objects are precisely aligned across all sensor modalities. We hope that CATS-V2V, the largest-scale, most supportive, and highest-quality dataset of its kind to date, will benefit the autonomous driving community in related tasks.
- Abstract(参考訳): 自動車車間協調認識(V2V)は、複雑な悪交通シナリオ(CATS)における認識制限を克服し、自律運転性能を高める大きな可能性を秘めている。
一方、データは現代の自律運転AIの基盤となる。
しかし、データ収集の厳しい要求のため、既存のデータセットは主に通常の交通シナリオに焦点を当てており、協調的な知覚の利点を制限している。
この課題に対処するために、複雑な悪交通シナリオ下でのV2V協調認識のための、第一級の現実世界データセットであるCATS-V2Vを紹介する。
データセットは2台のハードウェアのタイム同期車によって収集され、10カ所の天候と照明条件をカバーしている。
100クリップのデータセットには、10HzのLiDAR点雲の60Kフレームと、1.26Mのマルチビュー30Hzのカメライメージと750Kの匿名化と高精度RTK固定GNSSとIMUレコードが含まれている。
それに対応して、オブジェクトに対する時間一貫性を持つ3Dバウンディングボックスアノテーションと、4D BEV表現を構築する静的シーンを提供する。
そこで本研究では,すべての物体が全センサモードで正確に整列されていることを保証し,目標に基づく時間アライメント手法を提案する。
私たちはCATS-V2Vが、これまでで最大の、最も支持的で高品質なデータセットであり、関連するタスクにおいて自動運転コミュニティに恩恵をもたらすことを期待しています。
関連論文リスト
- UrbanIng-V2X: A Large-Scale Multi-Vehicle, Multi-Infrastructure Dataset Across Multiple Intersections for Cooperative Perception [45.81880967650386]
UrbanIng-V2Xは、時間的に整列された34のセンサーシーケンスと、20秒間続く空間的に校正されたセンサーシーケンスから構成される。
すべてのシーケンスは10Hzの周波数でアノテートされ、3D境界ボックスは13のオブジェクトクラスにまたがる。
UrbanIng-V2Xは合計12台の車載RGBカメラ、2台の車載LiDAR、17台のインフラ熱カメラ、12台のインフラLiDARからのデータを提供する。
論文 参考訳(メタデータ) (2025-10-27T16:12:12Z) - AGC-Drive: A Large-Scale Dataset for Real-World Aerial-Ground Collaboration in Driving Scenarios [68.84774511206797]
AGC-DriveはAerial-Ground Cooperativeの3D知覚のための最初の大規模実世界のデータセットである。
AGC-Driveには350のシーンがあり、それぞれ約100のフレームと13のオブジェクトカテゴリをカバーする完全な注釈付き3Dバウンディングボックスがある。
車両間協調認識と車両間協調認識の2つの3次元タスクのベンチマークを提供する。
論文 参考訳(メタデータ) (2025-06-19T14:48:43Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。