論文の概要: VMA: Divide-and-Conquer Vectorized Map Annotation System for Large-Scale
Driving Scene
- arxiv url: http://arxiv.org/abs/2304.09807v2
- Date: Sun, 27 Aug 2023 13:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 23:54:42.959579
- Title: VMA: Divide-and-Conquer Vectorized Map Annotation System for Large-Scale
Driving Scene
- Title(参考訳): VMA: 大規模運転シーンのための分枝ベクトル化マップアノテーションシステム
- Authors: Shaoyu Chen, Yunchi Zhang, Bencheng Liao, Jiafeng Xie, Tianheng Cheng,
Wei Sui, Qian Zhang, Chang Huang, Wenyu Liu, Xinggang Wang
- Abstract要約: 大規模運転シーンのHDマップを効率よく生成するための体系的ベクトル化マップアノテーションフレームワーク(VMA)を構築した。
VMAは非常に効率的で、人間の努力を無視でき、空間スケールや要素タイプの観点からも柔軟である。
平均的なVMAでは、数百メートルの範囲でシーンに注釈をつけるのに160分かかり、人件費の52.3%を削減している。
- 参考スコア(独自算出の注目度): 41.110429729268496
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: High-definition (HD) map serves as the essential infrastructure of autonomous
driving. In this work, we build up a systematic vectorized map annotation
framework (termed VMA) for efficiently generating HD map of large-scale driving
scene. We design a divide-and-conquer annotation scheme to solve the spatial
extensibility problem of HD map generation, and abstract map elements with a
variety of geometric patterns as unified point sequence representation, which
can be extended to most map elements in the driving scene. VMA is highly
efficient and extensible, requiring negligible human effort, and flexible in
terms of spatial scale and element type. We quantitatively and qualitatively
validate the annotation performance on real-world urban and highway scenes, as
well as NYC Planimetric Database. VMA can significantly improve map generation
efficiency and require little human effort. On average VMA takes 160min for
annotating a scene with a range of hundreds of meters, and reduces 52.3% of the
human cost, showing great application value. Code:
https://github.com/hustvl/VMA.
- Abstract(参考訳): ハイデフィニション(HD)マップは、自動運転の基盤となる。
本研究では,大規模運転シーンのHDマップを効率的に生成するシステムベクトル化マップアノテーションフレームワーク(VMA)を構築した。
本研究では,hdマップ生成の空間拡張性問題を解決するための分割・分割アノテーションスキームと,様々な幾何学的パターンを持つ抽象マップ要素を,運転シーンのほとんどのマップ要素に拡張可能な統一ポイントシーケンス表現として設計する。
VMAは非常に効率的で拡張性があり、人間の努力を無視し、空間スケールや要素タイプの観点から柔軟である。
実際の都市や高速道路のシーンにおけるアノテーション性能と,NYC Planimetric Databaseを定量的に定性的に検証した。
VMAはマップ生成効率を大幅に改善し、人間の努力をほとんど必要としない。
平均的なVMAでは、数百メートルの範囲でシーンに注釈を付けるのに160分かかり、人件費の52.3%を削減し、アプリケーションの価値が高い。
コード:https://github.com/hustvl/VMA。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - DeepAerialMapper: Deep Learning-based Semi-automatic HD Map Creation for Highly Automated Vehicles [0.0]
高解像度空中画像からHDマップを作成するための半自動手法を提案する。
提案手法では, ニューラルネットワークを訓練して, 空中画像をHDマップに関連するクラスに意味的に分割する。
マップをLanelet2フォーマットにエクスポートすることで、さまざまなユースケースを簡単に拡張できる。
論文 参考訳(メタデータ) (2024-10-01T15:05:05Z) - Enhancing Online Road Network Perception and Reasoning with Standard Definition Maps [14.535963852751635]
我々は,オンラインベクトル化HDマップ表現の開発において,軽量でスケーラブルな事前規格定義(SD)マップを活用することに注力する。
重要な発見は、SDマップエンコーダがモデル非依存であり、鳥の目視(BEV)エンコーダを利用する新しいアーキテクチャに迅速に適応できることである。
この結果から,オンライン地図作成タスクの先行作業としてSDマップを使用すると,コンバージェンスが大幅に向上し,オンラインセンターライン認識タスクの性能が30%向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-01T19:39:55Z) - ScalableMap: Scalable Map Learning for Online Long-Range Vectorized HD
Map Construction [42.874195888422584]
オンライン長範囲ベクトル化ハイデフィニション(HD)マップ構築のための,オンボードカメラセンサを用いた新しいエンドツーエンドパイプラインを提案する。
地図要素の特性を利用して地図構築の性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T09:46:24Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - MV-Map: Offboard HD-Map Generation with Multi-view Consistency [29.797769409113105]
Bird's-eye-view (BEV) の知覚モデルは、人間の労働力が少ない高精細地図(HD-Maps)を構築するのに有用である。
これらの結果は、しばしば信頼できないものであり、異なる視点から予測されたHD-Mapに顕著な矛盾を示す。
本稿では,計算制約を解消する,より実用的な「オフボード」なHDマップ生成機構を提案する。
論文 参考訳(メタデータ) (2023-05-15T17:59:15Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z) - HDNET: Exploiting HD Maps for 3D Object Detection [99.49035895393934]
高精細度(hd)マップは、現代の3dオブジェクト検出器の性能と頑健性を高める強力な事前情報を提供する。
我々はHDマップから幾何学的特徴と意味的特徴を抽出する単一ステージ検出器を設計する。
地図は至る所では利用できないため、生のLiDARデータからフライ時の地図を推定するマップ予測モジュールも提案する。
論文 参考訳(メタデータ) (2020-12-21T21:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。