論文の概要: Persistent Map Saving for Visual Localization for Autonomous Vehicles:
An ORB-SLAM Extension
- arxiv url: http://arxiv.org/abs/2005.07429v1
- Date: Fri, 15 May 2020 09:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:19:29.610445
- Title: Persistent Map Saving for Visual Localization for Autonomous Vehicles:
An ORB-SLAM Extension
- Title(参考訳): 自律走行車両の視覚定位のための永続的地図保存--orb-slam拡張
- Authors: Felix Nobis, Odysseas Papanikolaou, Johannes Betz and Markus Lienkamp
- Abstract要約: ステレオカメラセンサを用いて環境を知覚し,地図を作成する。
構築したSLAMマップに対して,KITTIデータセットのシーンのローカライズ精度を評価する。
平均走行速度36m/sで走行する車両の相対翻訳誤差が1%以下であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electric vhicles and autonomous driving dominate current research efforts in
the automotive sector. The two topics go hand in hand in terms of enabling
safer and more environmentally friendly driving. One fundamental building block
of an autonomous vehicle is the ability to build a map of the environment and
localize itself on such a map. In this paper, we make use of a stereo camera
sensor in order to perceive the environment and create the map. With live
Simultaneous Localization and Mapping (SLAM), there is a risk of
mislocalization, since no ground truth map is used as a reference and errors
accumulate over time. Therefore, we first build up and save a map of visual
features of the environment at low driving speeds with our extension to the
ORB-SLAM\,2 package. In a second run, we reload the map and then localize on
the previously built-up map. Loading and localizing on a previously built map
can improve the continuous localization accuracy for autonomous vehicles in
comparison to a full SLAM. This map saving feature is missing in the original
ORB-SLAM\,2 implementation.
We evaluate the localization accuracy for scenes of the KITTI dataset against
the built up SLAM map. Furthermore, we test the localization on data recorded
with our own small scale electric model car. We show that the relative
translation error of the localization stays under 1\% for a vehicle travelling
at an average longitudinal speed of 36 m/s in a feature-rich environment. The
localization mode contributes to a better localization accuracy and lower
computational load compared to a full SLAM. The source code of our contribution
to the ORB-SLAM2 will be made public at:
https://github.com/TUMFTM/orbslam-map-saving-extension.
- Abstract(参考訳): 電気自動車と自動運転は、自動車分野における現在の研究活動で支配的だ。
この2つのトピックは、より安全で環境に優しい運転を可能にするという点で密接に関連している。
自動運転車の基本的なビルディングブロックの1つは、環境の地図を構築し、そのような地図上で自分自身をローカライズする能力である。
本稿では,ステレオカメラセンサを用いて環境を把握し,地図を作成する。
live concurrent localization and mapping (slam) では、基底真理マップを参照として使用せず、時間とともにエラーが蓄積されるため、誤った局所化のリスクがある。
そこで我々はorb-slam\,2パッケージの拡張により,まず環境の視覚的特徴のマップを低駆動速度で構築し保存する。
2度目の実行では、マップをリロードして、以前構築したマップにローカライズします。
以前に構築された地図上でのローディングとローカライズは、完全なSLAMと比較して、自動運転車の継続的なローカライズ精度を向上させることができる。
このマップ保存機能はオリジナルのORB-SLAM\,2実装に欠けている。
構築したSLAMマップに対して,KITTIデータセットのシーンのローカライズ精度を評価する。
さらに, 小型電動車を用いて記録したデータの局所化を検証した。
特徴量の多い環境で平均走行速度36m/sで走行する車両において, 局所化の相対翻訳誤差が1\%以下であることを示す。
ローカライズモードは、フルSLAMに比べてローカライズ精度と計算負荷の低減に寄与する。
ORB-SLAM2への私たちの貢献のソースコードは、https://github.com/TUMFTM/orbslam-map-saving-extensionで公開されます。
関連論文リスト
- Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - Energy-Based Models for Cross-Modal Localization using Convolutional
Transformers [52.27061799824835]
GPSのない衛星画像に対して、距離センサを搭載した地上車両を位置決めする新しい枠組みを提案する。
本稿では, 畳み込み変換器を用いて, 高精度な計量レベルの局所化を行う手法を提案する。
我々は、エンドツーエンドでモデルをトレーニングし、KITTI、Pandaset、カスタムデータセットの最先端技術よりも高い精度でアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-06T21:27:08Z) - A Survey on Visual Map Localization Using LiDARs and Cameras [0.0]
視覚マップのローカライゼーションを2段階プロセスとして定義する。
位置認識の段階では、視覚センサ出力とジオタグ付き地図領域の集合とを比較して、地図内の車両の初期位置を決定する。
地図距離定位の段階では、車両が地図を横切りながら追跡され、視界センサの出力と現在の地図の面積を連続的に調整する。
論文 参考訳(メタデータ) (2022-08-05T20:11:18Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Coarse-to-fine Semantic Localization with HD Map for Autonomous Driving
in Structural Scenes [1.1024591739346292]
カメラを主センサとする自動運転のためのHDマップを用いたコスト効率の高い車両位置決めシステムを提案する。
視覚的セマンティクスをHDマップのランドマークにマップするデータアソシエーション問題として視覚に基づくローカライゼーションを定式化する。
本手法を2つのデータセット上で評価し,提案手法が異なる運転シナリオにおいて有望なローカライゼーション結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-06T11:58:55Z) - RoadMap: A Light-Weight Semantic Map for Visual Localization towards
Autonomous Driving [10.218935873715413]
低コストのカメラとコンパクトな視覚的セマンティックマップに依存する軽量なローカライゼーションソリューションを提案する。
地図は簡単に作成され、センサリッチな車両によってクラウドソースで更新される。
実世界の実験で提案したマップの性能を検証し,他のアルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-06-04T14:55:10Z) - Localization of Autonomous Vehicles: Proof of Concept for A Computer
Vision Approach [0.0]
本稿では,複雑なハードウェアシステムやカメラがなくても動作する自律走行車(AV)の視覚的ローカライズ手法を提案する。
提案システムは,KITTIデータセットを用いてテストし,車両の最終的な位置を求める際に平均2mの精度を示した。
論文 参考訳(メタデータ) (2021-04-06T21:09:47Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z) - What is the Best Grid-Map for Self-Driving Cars Localization? An
Evaluation under Diverse Types of Illumination, Traffic, and Environment [10.64191129882262]
自動運転車のローカライゼーションは、地図の更新、オブジェクトの追跡、計画など、いくつかのタスクに必要である。
複数のマップの維持・使用は計算コストがかかるため、各アプリケーションにどのマップが適切かを分析することが重要である。
本研究では, 占有率, 反射率, 色, セマンティックグリッドマップを用いて, 粒子フィルタの局所化の精度を比較することによって, その解析のためのデータを提供する。
論文 参考訳(メタデータ) (2020-09-19T22:02:44Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。