論文の概要: A Benchmark for Vision-Centric HD Mapping by V2I Systems
- arxiv url: http://arxiv.org/abs/2503.23963v1
- Date: Mon, 31 Mar 2025 11:24:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:40.502421
- Title: A Benchmark for Vision-Centric HD Mapping by V2I Systems
- Title(参考訳): V2Iシステムによる視覚中心HDマッピングのベンチマーク
- Authors: Miao Fan, Shanshan Yu, Shengtong Xu, Kun Jiang, Haoyi Xiong, Xiangzeng Liu,
- Abstract要約: 車両と道路インフラストラクチャの両方からの協調的なカメラフレームを含む実世界のデータセットをリリースする。
ベクトル化マップの構築に視覚中心のV2Iシステムを利用するエンドツーエンドのニューラルネットワークフレームワーク(V2I-HD)を提案する。
- 参考スコア(独自算出の注目度): 20.00132555655793
- License:
- Abstract: Autonomous driving faces safety challenges due to a lack of global perspective and the semantic information of vectorized high-definition (HD) maps. Information from roadside cameras can greatly expand the map perception range through vehicle-to-infrastructure (V2I) communications. However, there is still no dataset from the real world available for the study on map vectorization onboard under the scenario of vehicle-infrastructure cooperation. To prosper the research on online HD mapping for Vehicle-Infrastructure Cooperative Autonomous Driving (VICAD), we release a real-world dataset, which contains collaborative camera frames from both vehicles and roadside infrastructures, and provides human annotations of HD map elements. We also present an end-to-end neural framework (i.e., V2I-HD) leveraging vision-centric V2I systems to construct vectorized maps. To reduce computation costs and further deploy V2I-HD on autonomous vehicles, we introduce a directionally decoupled self-attention mechanism to V2I-HD. Extensive experiments show that V2I-HD has superior performance in real-time inference speed, as tested by our real-world dataset. Abundant qualitative results also demonstrate stable and robust map construction quality with low cost in complex and various driving scenes. As a benchmark, both source codes and the dataset have been released at OneDrive for the purpose of further study.
- Abstract(参考訳): 自律運転は、グローバルな視点の欠如とベクトル化された高精細(HD)マップのセマンティック情報により、安全上の課題に直面している。
道路カメラからの情報は、V2I通信を通じて地図認識範囲を大幅に拡大することができる。
しかし、車内協力のシナリオの下で地図ベクトル化の研究を行うために、現実世界からのデータセットはいまだに存在しない。
自動車・インフラ協調自動運転(VICAD)のオンラインHDマッピングに関する研究を進展させるために、車と道路のインフラの協調カメラフレームを含む実世界のデータセットをリリースし、HDマップ要素の人間のアノテーションを提供する。
また、視覚中心のV2Iシステムを利用してベクトル化マップを構築するエンド・ツー・エンドのニューラルネットワークフレームワーク(V2I-HD)を提案する。
計算コストを削減し、V2I-HDをさらに自動運転車に展開するために、V2I-HDに方向分離された自己保持機構を導入する。
大規模な実験により、V2I-HDは実世界のデータセットでテストされるように、リアルタイムの推論速度において優れた性能を持つことが示された。
また, 複雑な運転シーンや各種運転シーンにおいて, 低コストで安定かつ堅牢な地図構築品質を示す。
ベンチマークとして、さらなる研究を目的として、ソースコードとデータセットがOneDriveでリリースされた。
関連論文リスト
- Leveraging V2X for Collaborative HD Maps Construction Using Scene Graph Generation [0.0]
HDマップは自動運転車のナビゲーションにおいて重要な役割を担い、精度と安全性を向上させるために搭載された知覚センサーを補完する。
従来のHDマップ生成は、コストがかかりリアルタイムのインフラ変更をキャプチャできない専用のマッピング車両に依存している。
本稿では,V2X通信とScene Graph Generationを利用する新しいフレームワークであるHDMapLaneNetについて述べる。
論文 参考訳(メタデータ) (2025-02-14T12:56:10Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Driving with Prior Maps: Unified Vector Prior Encoding for Autonomous Vehicle Mapping [18.97422977086127]
高精細マップ(HDマップ)は、自動運転車の正確なナビゲーションと意思決定に不可欠である。
オンボードセンサーを用いたHDマップのオンライン構築が有望なソリューションとして浮上した。
本稿では,事前マップのパワーを活用して,これらの制約に対処するPresidedDriveフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-09T06:17:46Z) - V2X-Real: a Large-Scale Dataset for Vehicle-to-Everything Cooperative Perception [22.3955949838171]
V2X-Realは大規模なデータセットで、複数の車両とスマートインフラストラクチャが混在している。
我々のデータセットには33KのLiDARフレームと171Kのカメラデータが含まれており、非常に困難な都市シナリオでは10のカテゴリに1.2Mの注釈付きバウンディングボックスがある。
論文 参考訳(メタデータ) (2024-03-24T06:30:02Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - DAIR-V2X: A Large-Scale Dataset for Vehicle-Infrastructure Cooperative
3D Object Detection [8.681912341444901]
DAIR-V2Xは、自動車・インフラ協調自律運転の現実シナリオから得られた、最初の大規模でマルチモードのマルチビューデータセットである。
DAIR-V2Xは71254のLiDARフレームと71254のカメラフレームで構成される。
論文 参考訳(メタデータ) (2022-04-12T07:13:33Z) - HDNET: Exploiting HD Maps for 3D Object Detection [99.49035895393934]
高精細度(hd)マップは、現代の3dオブジェクト検出器の性能と頑健性を高める強力な事前情報を提供する。
我々はHDマップから幾何学的特徴と意味的特徴を抽出する単一ステージ検出器を設計する。
地図は至る所では利用できないため、生のLiDARデータからフライ時の地図を推定するマップ予測モジュールも提案する。
論文 参考訳(メタデータ) (2020-12-21T21:59:54Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。