論文の概要: UrbanIng-V2X: A Large-Scale Multi-Vehicle, Multi-Infrastructure Dataset Across Multiple Intersections for Cooperative Perception
- arxiv url: http://arxiv.org/abs/2510.23478v1
- Date: Mon, 27 Oct 2025 16:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.611122
- Title: UrbanIng-V2X: A Large-Scale Multi-Vehicle, Multi-Infrastructure Dataset Across Multiple Intersections for Cooperative Perception
- Title(参考訳): UrbanIng-V2X : 協調知覚のための大規模多層多層構造データセット
- Authors: Karthikeyan Chandra Sekaran, Markus Geisler, Dominik Rößle, Adithya Mohan, Daniel Cremers, Wolfgang Utschick, Michael Botsch, Werner Huber, Torsten Schön,
- Abstract要約: UrbanIng-V2Xは、時間的に整列された34のセンサーシーケンスと、20秒間続く空間的に校正されたセンサーシーケンスから構成される。
すべてのシーケンスは10Hzの周波数でアノテートされ、3D境界ボックスは13のオブジェクトクラスにまたがる。
UrbanIng-V2Xは合計12台の車載RGBカメラ、2台の車載LiDAR、17台のインフラ熱カメラ、12台のインフラLiDARからのデータを提供する。
- 参考スコア(独自算出の注目度): 45.81880967650386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent cooperative perception datasets have played a crucial role in advancing smart mobility applications by enabling information exchange between intelligent agents, helping to overcome challenges such as occlusions and improving overall scene understanding. While some existing real-world datasets incorporate both vehicle-to-vehicle and vehicle-to-infrastructure interactions, they are typically limited to a single intersection or a single vehicle. A comprehensive perception dataset featuring multiple connected vehicles and infrastructure sensors across several intersections remains unavailable, limiting the benchmarking of algorithms in diverse traffic environments. Consequently, overfitting can occur, and models may demonstrate misleadingly high performance due to similar intersection layouts and traffic participant behavior. To address this gap, we introduce UrbanIng-V2X, the first large-scale, multi-modal dataset supporting cooperative perception involving vehicles and infrastructure sensors deployed across three urban intersections in Ingolstadt, Germany. UrbanIng-V2X consists of 34 temporally aligned and spatially calibrated sensor sequences, each lasting 20 seconds. All sequences contain recordings from one of three intersections, involving two vehicles and up to three infrastructure-mounted sensor poles operating in coordinated scenarios. In total, UrbanIng-V2X provides data from 12 vehicle-mounted RGB cameras, 2 vehicle LiDARs, 17 infrastructure thermal cameras, and 12 infrastructure LiDARs. All sequences are annotated at a frequency of 10 Hz with 3D bounding boxes spanning 13 object classes, resulting in approximately 712k annotated instances across the dataset. We provide comprehensive evaluations using state-of-the-art cooperative perception methods and publicly release the codebase, dataset, HD map, and a digital twin of the complete data collection environment.
- Abstract(参考訳): 近年の協調認識データセットは、知的エージェント間の情報交換を可能にし、隠蔽などの課題を克服し、シーン全体の理解を改善することで、スマートモビリティアプリケーションを進める上で重要な役割を担っている。
既存の実世界のデータセットには車間相互作用と車間相互作用の両方が含まれているが、通常は1つの交差点または1つの車両に限られる。
複数の接続車両と複数の交差点にまたがるインフラストラクチャセンサーを備えた総合的な認識データセットは、さまざまな交通環境におけるアルゴリズムのベンチマークを制限するために、まだ利用できない。
その結果、オーバーフィッティングが発生し、同様の交差点配置や交通参加者の振る舞いのために、モデルが誤って高い性能を示す可能性がある。
このギャップに対処するため、ドイツのインゴルシュタットの3つの都市交差点に展開する車両とインフラセンサーの協調認識をサポートする、最初の大規模マルチモーダルデータセットであるUrbanIng-V2Xを紹介した。
UrbanIng-V2Xは、34の時間的整列と空間的校正されたセンサーシーケンスで構成され、それぞれ20秒持続する。
全てのシーケンスには、3つの交差点のうちの1つの記録が含まれており、2台の車両と3台のインフラ搭載センサーポールが調整されたシナリオで動作している。
UrbanIng-V2Xは合計12台の車載RGBカメラ、2台の車載LiDAR、17台のインフラ熱カメラ、12台のインフラLiDARからのデータを提供する。
すべてのシーケンスは10Hzの周波数でアノテートされ、3Dバウンディングボックスは13のオブジェクトクラスにまたがっており、結果としてデータセット全体で約712kのアノテートインスタンスが生成される。
我々は、最先端の協調認識手法を用いて包括的な評価を行い、コードベース、データセット、HDマップ、および完全なデータ収集環境のデジタルツインを公開する。
関連論文リスト
- AGC-Drive: A Large-Scale Dataset for Real-World Aerial-Ground Collaboration in Driving Scenarios [68.84774511206797]
AGC-DriveはAerial-Ground Cooperativeの3D知覚のための最初の大規模実世界のデータセットである。
AGC-Driveには350のシーンがあり、それぞれ約100のフレームと13のオブジェクトカテゴリをカバーする完全な注釈付き3Dバウンディングボックスがある。
車両間協調認識と車両間協調認識の2つの3次元タスクのベンチマークを提供する。
論文 参考訳(メタデータ) (2025-06-19T14:48:43Z) - Mixed Signals: A Diverse Point Cloud Dataset for Heterogeneous LiDAR V2X Collaboration [57.3519952529079]
車両間協調認識(V2X)は、単車知覚システムの限界に対処するための有望な解決策として登場した。
これらのギャップに対処するために、45.1kの点雲と240.6kのバウンディングボックスを備えた総合的なV2XデータセットであるMixed Signalsを紹介した。
私たちのデータセットは10クラスのポイントクラウドとバウンディングボックスアノテーションを提供し、認識トレーニングのための信頼性の高いデータを確保します。
論文 参考訳(メタデータ) (2025-02-19T23:53:00Z) - Multi-V2X: A Large Scale Multi-modal Multi-penetration-rate Dataset for Cooperative Perception [3.10770247120758]
本稿では,V2X知覚のための大規模・マルチモーダル・マルチペネレーションレートデータセットであるMulti-V2Xを紹介する。
私たちのMulti-V2Xデータセットは、合計549kのRGBフレーム、146kのLiDARフレーム、4,219kの注釈付き3Dバウンディングボックスで構成されています。
最も高いCAV侵入率は86.21%に達し、通信範囲に31のエージェントがある。
論文 参考訳(メタデータ) (2024-09-08T05:22:00Z) - V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - HoloVIC: Large-scale Dataset and Benchmark for Multi-Sensor Holographic Intersection and Vehicle-Infrastructure Cooperative [23.293162454592544]
複数レイアウトのホログラフィック交差点を構築し,HoloVICと呼ばれる大規模多センサのホログラフィック車両・赤外線協調データセットを構築した。
私たちのデータセットには3種類のセンサー(Camera, Lidar, Fisheye)が含まれています。
論文 参考訳(メタデータ) (2024-03-05T04:08:19Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。