論文の概要: EgoVM: Achieving Precise Ego-Localization using Lightweight Vectorized
Maps
- arxiv url: http://arxiv.org/abs/2307.08991v1
- Date: Tue, 18 Jul 2023 06:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:21:55.373908
- Title: EgoVM: Achieving Precise Ego-Localization using Lightweight Vectorized
Maps
- Title(参考訳): EgoVM: 軽量ベクトルマップによる精密Egoローカライゼーションの実現
- Authors: Yuzhe He, Shuang Liang, Xiaofei Rui, Chengying Cai, Guowei Wan
- Abstract要約: 本稿では,従来の最先端手法に匹敵するローカライズ精度を実現するエンド・ツー・エンドのローカライズネットワークであるEgoVMを提案する。
我々は、学習可能なセマンティック埋め込みを用いて、マップ要素のセマンティックタイプを符号化し、セマンティックセマンティックセグメンテーションでそれらを監督する。
本研究では,頑健なヒストグラムに基づくポーズ解法を用いて,候補ポーズを徹底的に探索することで最適なポーズを推定する。
- 参考スコア(独自算出の注目度): 9.450650025266379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and reliable ego-localization is critical for autonomous driving. In
this paper, we present EgoVM, an end-to-end localization network that achieves
comparable localization accuracy to prior state-of-the-art methods, but uses
lightweight vectorized maps instead of heavy point-based maps. To begin with,
we extract BEV features from online multi-view images and LiDAR point cloud.
Then, we employ a set of learnable semantic embeddings to encode the semantic
types of map elements and supervise them with semantic segmentation, to make
their feature representation consistent with BEV features. After that, we feed
map queries, composed of learnable semantic embeddings and coordinates of map
elements, into a transformer decoder to perform cross-modality matching with
BEV features. Finally, we adopt a robust histogram-based pose solver to
estimate the optimal pose by searching exhaustively over candidate poses. We
comprehensively validate the effectiveness of our method using both the
nuScenes dataset and a newly collected dataset. The experimental results show
that our method achieves centimeter-level localization accuracy, and
outperforms existing methods using vectorized maps by a large margin.
Furthermore, our model has been extensively tested in a large fleet of
autonomous vehicles under various challenging urban scenes.
- Abstract(参考訳): 自動運転には正確で信頼性の高いエゴローカライズが不可欠である。
本稿では,最先端の手法と同等のローカライズ精度を実現するとともに,重みのある点ベースの地図の代わりに軽量なベクトル化地図を用いる,エンドツーエンドのローカライズネットワークであるegovmを提案する。
まず、オンラインのマルチビュー画像とlidar point cloudからbev機能を抽出する。
次に,マップ要素の意味型をエンコードし,意味セグメンテーションでそれらを監督し,それらの特徴表現をbev機能と一貫性を持たせるために,学習可能な意味埋め込みを用いた。
その後、map要素の学習可能な意味埋め込みと座標からなるmapクエリをtransformerデコーダに供給し、bev機能とのクロスモダリティマッチングを行う。
最後に,ロバストなヒストグラムベースのポーズソルバを用いて,候補ポーズを徹底的に探索することで最適なポーズを推定する。
nuScenesデータセットと新たに収集したデータセットの両方を用いて,本手法の有効性を総合的に検証した。
実験の結果, 提案手法はセンチメートルレベルの位置推定精度を達成し, ベクトル化地図を用いた既存手法を大きなマージンで上回った。
さらに,我々のモデルは,様々な挑戦的な都市環境下で,大規模な自動運転車で広範囲にテストされてきた。
関連論文リスト
- VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Monocular Localization with Semantics Map for Autonomous Vehicles [8.242967098897408]
低レベルのテクスチャ機能の代わりに安定したセマンティック機能を利用する新しい視覚的セマンティックローカライゼーションアルゴリズムを提案する。
まず、セマンティックマップは、カメラやLiDARセンサーを使用して、グラウンドマーカー、レーンライン、ポールなどのセマンティックオブジェクトを検出してオフラインで構築される。
オンラインの視覚的ローカライゼーションは意味的特徴とマップオブジェクトのデータアソシエーションによって行われる。
論文 参考訳(メタデータ) (2024-06-06T08:12:38Z) - SemVecNet: Generalizable Vector Map Generation for Arbitrary Sensor Configurations [3.8472678261304587]
センサ構成への一般化を改善したベクトルマップ生成のためのモジュールパイプラインを提案する。
センサ構成に頑健なBEVセマンティックマップを採用することにより,提案手法は一般化性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-30T23:45:16Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - Asynchronously Trained Distributed Topographic Maps [0.0]
分散トレーニングによって特徴マップを生成するために,N$の自律ユニットを用いたアルゴリズムを提案する。
単位の自律性は、分散探索とカスケード駆動の重み更新スキームを組み合わせることで、時間と空間のスパース相互作用によって達成される。
論文 参考訳(メタデータ) (2023-01-20T01:15:56Z) - BEV-Locator: An End-to-end Visual Semantic Localization Network Using
Multi-View Images [13.258689143949912]
マルチビューカメラ画像を用いたエンドツーエンドの視覚的セマンティックローカライゼーションニューラルネットワークを提案する。
BEV-Locatorは、多目的シナリオ下での車両のポーズを推定することができる。
実験では, 平均絶対誤差が0.052m, 0.135m, 0.251$circ$, 横方向, 縦方向の翻訳, 方向角の程度で満足な精度を報告した。
論文 参考訳(メタデータ) (2022-11-27T20:24:56Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Coarse-to-fine Semantic Localization with HD Map for Autonomous Driving
in Structural Scenes [1.1024591739346292]
カメラを主センサとする自動運転のためのHDマップを用いたコスト効率の高い車両位置決めシステムを提案する。
視覚的セマンティクスをHDマップのランドマークにマップするデータアソシエーション問題として視覚に基づくローカライゼーションを定式化する。
本手法を2つのデータセット上で評価し,提案手法が異なる運転シナリオにおいて有望なローカライゼーション結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-06T11:58:55Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。