論文の概要: UrbanV2X: A Multisensory Vehicle-Infrastructure Dataset for Cooperative Navigation in Urban Areas
- arxiv url: http://arxiv.org/abs/2512.20224v1
- Date: Tue, 23 Dec 2025 10:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.477336
- Title: UrbanV2X: A Multisensory Vehicle-Infrastructure Dataset for Cooperative Navigation in Urban Areas
- Title(参考訳): UrbanV2X: 都市部における協調ナビゲーションのための多感性車両赤外構造データセット
- Authors: Qijun Qin, Ziqi Zhang, Yihan Zhong, Feng Huang, Xikun Liu, Runzhi Hu, Hang Chen, Wei Hu, Dongzhe Su, Jun Zhang, Hoi-Fung Ng, Weisong Wen,
- Abstract要約: UrbanV2Xは、香港のC-V2Xテストベッドで車両と道路インフラストラクチャから収集された総合的なマルチセンサーデータセットである。
私たちのオンボードプラットフォームは、複数の産業用カメラ、LiDAR、4Dレーダー、UWB、IMU、高精度RTK/INSナビゲーションシステムからの同期データを提供します。
車両とインフラ全体のプラットフォームは、精密時間プロトコル(Precision Time Protocol, PTP)を使用して同期され、センサーキャリブレーションデータが提供される。
- 参考スコア(独自算出の注目度): 23.5941236522749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the limitations of a single autonomous vehicle, Cellular Vehicle-to-Everything (C-V2X) technology opens a new window for achieving fully autonomous driving through sensor information sharing. However, real-world datasets supporting vehicle-infrastructure cooperative navigation in complex urban environments remain rare. To address this gap, we present UrbanV2X, a comprehensive multisensory dataset collected from vehicles and roadside infrastructure in the Hong Kong C-V2X testbed, designed to support research on smart mobility applications in dense urban areas. Our onboard platform provides synchronized data from multiple industrial cameras, LiDARs, 4D radar, ultra-wideband (UWB), IMU, and high-precision GNSS-RTK/INS navigation systems. Meanwhile, our roadside infrastructure provides LiDAR, GNSS, and UWB measurements. The entire vehicle-infrastructure platform is synchronized using the Precision Time Protocol (PTP), with sensor calibration data provided. We also benchmark various navigation algorithms to evaluate the collected cooperative data. The dataset is publicly available at https://polyu-taslab.github.io/UrbanV2X/.
- Abstract(参考訳): 単一の自動運転車の限界のため、C-V2X(Cellular Vehicle-to-Everything)技術はセンサー情報共有を通じて完全な自動運転を実現するための新しい窓を開く。
しかし、複雑な都市環境における車両とインフラの協調航行を支援する実世界のデータセットは依然として稀である。
このギャップに対処するため、香港のC-V2Xテストベッドで車両と道路インフラストラクチャから収集された総合的なマルチセンサーデータセットであるUrbanV2Xを紹介した。
私たちのオンボードプラットフォームは、複数の産業用カメラ、LiDAR、4Dレーダー、UWB、IMU、高精度GNSS-RTK/INSナビゲーションシステムからの同期データを提供します。
一方、道路インフラストラクチャーは、LiDAR、GNSS、UWBの測定を提供する。
車両とインフラ全体のプラットフォームは、精密時間プロトコル(Precision Time Protocol, PTP)を使用して同期され、センサーキャリブレーションデータが提供される。
また、収集した協調データを評価するために、様々なナビゲーションアルゴリズムをベンチマークする。
データセットはhttps://polyu-taslab.github.io/UrbanV2X/で公開されている。
関連論文リスト
- Beyond the Vehicle: Cooperative Localization by Fusing Point Clouds for GPS-Challenged Urban Scenarios [0.0]
本稿では,この問題に対処するための協調型マルチセンサとマルチモーダルローカライゼーション手法を提案する。
提案手法は, 協調データとポイントクラウド登録に基づく同時局所化とマッピングアルゴリズムを統合する。
インフラからの共有データを活用することにより,複雑でGPSにうるさい都市シナリオにおける局所化精度とロバスト性を大幅に向上する。
論文 参考訳(メタデータ) (2026-02-03T14:47:31Z) - UrbanIng-V2X: A Large-Scale Multi-Vehicle, Multi-Infrastructure Dataset Across Multiple Intersections for Cooperative Perception [45.81880967650386]
UrbanIng-V2Xは、時間的に整列された34のセンサーシーケンスと、20秒間続く空間的に校正されたセンサーシーケンスから構成される。
すべてのシーケンスは10Hzの周波数でアノテートされ、3D境界ボックスは13のオブジェクトクラスにまたがる。
UrbanIng-V2Xは合計12台の車載RGBカメラ、2台の車載LiDAR、17台のインフラ熱カメラ、12台のインフラLiDARからのデータを提供する。
論文 参考訳(メタデータ) (2025-10-27T16:12:12Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [61.58737390490639]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、350Kの注釈付きボックスを含む20Kの4Dレーダデータで構成されている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - Berlin V2X: A Machine Learning Dataset from Multiple Vehicles and Radio
Access Technologies [56.77079930521082]
我々は,MLに基づく多種多様な研究への道を開くための詳細な測定キャンペーンを実施してきた。
得られたデータセットは、携帯電話(と2つの異なるオペレーター)とサイドリンク無線アクセス技術の両方のために、様々な都市環境にまたがるGPS位置の無線測定を提供する。
私たちは、MLが克服しなければならない課題と、MLが活用できる機能について、データの初期分析を提供しています。
論文 参考訳(メタデータ) (2022-12-20T15:26:39Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。