論文の概要: Learning to Generate Vectorized Maps at Intersections with Multiple Roadside Cameras
- arxiv url: http://arxiv.org/abs/2507.02899v2
- Date: Thu, 10 Jul 2025 07:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 14:32:08.271847
- Title: Learning to Generate Vectorized Maps at Intersections with Multiple Roadside Cameras
- Title(参考訳): 複数の道路カメラを用いた交差点におけるベクトルマップ生成の学習
- Authors: Quanxin Zheng, Miao Fan, Shengtong Xu, Linghe Kong, Haoyi Xiong,
- Abstract要約: 我々は,高精細ベクトル化マップを交差点で直接生成するように設計された,費用対効果の高い視覚中心のエンドツーエンドニューラルネットワークであるMRC-VMapを紹介した。
MRC-VMapは、時系列の多方向画像を直接ベクトル化された地図表現に変換する。
中国4大都市圏で4000の交差点で実施された実験では、MRC-VMapは最先端のオンライン手法を上回るだけでなく、低コストのLiDARベースのアプローチに匹敵する精度を達成している。
- 参考スコア(独自算出の注目度): 30.356953717945682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vectorized maps are indispensable for precise navigation and the safe operation of autonomous vehicles. Traditional methods for constructing these maps fall into two categories: offline techniques, which rely on expensive, labor-intensive LiDAR data collection and manual annotation, and online approaches that use onboard cameras to reduce costs but suffer from limited performance, especially at complex intersections. To bridge this gap, we introduce MRC-VMap, a cost-effective, vision-centric, end-to-end neural network designed to generate high-definition vectorized maps directly at intersections. Leveraging existing roadside surveillance cameras, MRC-VMap directly converts time-aligned, multi-directional images into vectorized map representations. This integrated solution lowers the need for additional intermediate modules--such as separate feature extraction and Bird's-Eye View (BEV) conversion steps--thus reducing both computational overhead and error propagation. Moreover, the use of multiple camera views enhances mapping completeness, mitigates occlusions, and provides robust performance under practical deployment constraints. Extensive experiments conducted on 4,000 intersections across 4 major metropolitan areas in China demonstrate that MRC-VMap not only outperforms state-of-the-art online methods but also achieves accuracy comparable to high-cost LiDAR-based approaches, thereby offering a scalable and efficient solution for modern autonomous navigation systems.
- Abstract(参考訳): ベクトル地図は、正確なナビゲーションと自動運転車の安全な運転には不可欠である。
従来の地図作成手法は、高価で労働集約的なLiDARデータ収集と手動アノテーションに依存するオフライン技術と、コスト削減のためにオンボードカメラを使用するオンラインアプローチの2つのカテゴリに分類される。
このギャップを埋めるために,我々は,高精細ベクトル化マップを交差点で直接生成するように設計された,費用対効果の高い視覚中心のエンドツーエンドニューラルネットワークであるMRC-VMapを導入する。
既存の道路監視カメラを活用して、MRC-VMapはタイムアラインで多方向の画像を直接ベクトル化された地図表現に変換する。
この統合されたソリューションは、別個の特徴抽出やBird's-Eye View(BEV)変換ステップなど、追加の中間モジュールの必要性を低減します。
さらに、複数のカメラビューを使用することで、マッピング完全性を高め、オクルージョンを緩和し、実際のデプロイメント制約下での堅牢なパフォーマンスを提供する。
中国4大都市圏で4000の交差点で実施された大規模な実験は、MSC-VMapが最先端のオンライン手法を上回るだけでなく、低コストのLiDARベースのアプローチに匹敵する精度を達成し、現代の自律ナビゲーションシステムにスケーラブルで効率的なソリューションを提供することを示した。
関連論文リスト
- Pole-based Vehicle Localization with Vector Maps: A Camera-LiDAR Comparative Study [6.300346102366891]
道路環境では、交通標識、信号機、街灯など多くの一般的な家具がポールの形をしている。
本稿では,自動アノテート画像に基づいて訓練された軽量ニューラルネットワークを用いて,カメラによるポール検出をリアルタイムに行う手法を提案する。
その結果,オープン道路環境における視線に基づくアプローチの精度が向上した。
論文 参考訳(メタデータ) (2024-12-11T09:05:05Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - OCTraN: 3D Occupancy Convolutional Transformer Network in Unstructured
Traffic Scenarios [0.0]
我々は2次元画像特徴を3次元占有特徴に変換するために反復アテンションを用いたトランスフォーマーアーキテクチャOCTraNを提案する。
また、LiDARの地上真実の必要性を排除し、任意のシーンにモデルを一般化するための自己教師型トレーニングパイプラインも開発している。
論文 参考訳(メタデータ) (2023-07-20T15:06:44Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - BEVBert: Multimodal Map Pre-training for Language-guided Navigation [75.23388288113817]
視覚・言語ナビゲーション(VLN)における空間認識型マップベース事前学習パラダイムを提案する。
我々は,グローバルなトポロジカルマップにおけるナビゲーション依存性をモデル化しながら,不完全な観測を明示的に集約し,重複を取り除くための局所距離マップを構築した。
ハイブリッドマップをベースとして,マルチモーダルマップ表現を学習するための事前学習フレームワークを考案し,空間認識型クロスモーダル推論を強化し,言語誘導ナビゲーションの目標を導出する。
論文 参考訳(メタデータ) (2022-12-08T16:27:54Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。