論文の概要: What is the Best Grid-Map for Self-Driving Cars Localization? An
Evaluation under Diverse Types of Illumination, Traffic, and Environment
- arxiv url: http://arxiv.org/abs/2009.09308v1
- Date: Sat, 19 Sep 2020 22:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 21:36:56.543135
- Title: What is the Best Grid-Map for Self-Driving Cars Localization? An
Evaluation under Diverse Types of Illumination, Traffic, and Environment
- Title(参考訳): 自動運転車のローカライゼーションに最適なグリッドマップとは?
多様な照明, 交通, 環境下における評価
- Authors: Filipe Mutz, Thiago Oliveira-Santos, Avelino Forechi, Karin S. Komati,
Claudine Badue, Felipe M. G. Fran\c{c}a, Alberto F. De Souza
- Abstract要約: 自動運転車のローカライゼーションは、地図の更新、オブジェクトの追跡、計画など、いくつかのタスクに必要である。
複数のマップの維持・使用は計算コストがかかるため、各アプリケーションにどのマップが適切かを分析することが重要である。
本研究では, 占有率, 反射率, 色, セマンティックグリッドマップを用いて, 粒子フィルタの局所化の精度を比較することによって, その解析のためのデータを提供する。
- 参考スコア(独自算出の注目度): 10.64191129882262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The localization of self-driving cars is needed for several tasks such as
keeping maps updated, tracking objects, and planning. Localization algorithms
often take advantage of maps for estimating the car pose. Since maintaining and
using several maps is computationally expensive, it is important to analyze
which type of map is more adequate for each application. In this work, we
provide data for such analysis by comparing the accuracy of a particle filter
localization when using occupancy, reflectivity, color, or semantic grid maps.
To the best of our knowledge, such evaluation is missing in the literature. For
building semantic and colour grid maps, point clouds from a Light Detection and
Ranging (LiDAR) sensor are fused with images captured by a front-facing camera.
Semantic information is extracted from images with a deep neural network.
Experiments are performed in varied environments, under diverse conditions of
illumination and traffic. Results show that occupancy grid maps lead to more
accurate localization, followed by reflectivity grid maps. In most scenarios,
the localization with semantic grid maps kept the position tracking without
catastrophic losses, but with errors from 2 to 3 times bigger than the
previous. Colour grid maps led to inaccurate and unstable localization even
using a robust metric, the entropy correlation coefficient, for comparing
online data and the map.
- Abstract(参考訳): 自動運転車のローカライゼーションは、地図の更新、オブジェクトの追跡、計画などのタスクに必要である。
ローカライゼーションアルゴリズムは、しばしば車のポーズを推定するために地図を利用する。
複数のマップの維持・使用は計算コストがかかるため、各アプリケーションにどのマップが適切かを分析することが重要である。
本研究では, 占有率, 反射率, 色, 意味的グリッドマップを用いた場合の粒子フィルタの局所化の精度を比較することにより, 解析のためのデータを提供する。
私たちの知る限りでは、そのような評価は文献に欠けている。
セマンティクスとカラーグリッドマップを構築するために、光検出と測位(lidar)センサーからの点雲は、前面カメラによって撮影された画像と融合される。
深層ニューラルネットワークを用いた画像から意味情報を抽出する。
様々な環境で、照明と交通の様々な条件下で実験が行われる。
その結果, 占有グリッドマップはより正確な位置推定につながり, 反射率グリッドマップが続くことがわかった。
ほとんどのシナリオでは、セマンティックグリッドマップによる局所化は、壊滅的な損失を伴わずに位置追跡を保ったが、エラーは前より2倍から3倍大きい。
カラーグリッドマップは、オンラインデータとマップを比較するために、ロバストな計量であるエントロピー相関係数を用いても不正確で不安定なローカライゼーションを導いた。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - Sparse Semantic Map-Based Monocular Localization in Traffic Scenes Using
Learned 2D-3D Point-Line Correspondences [29.419138863851526]
クエリー画像が与えられた場合、カメラのポーズが先行マップに対応すると見積もることが目的である。
既存のアプローチは、登録問題を解決するために、機能レベルでの高密度な点記述子に大きく依存している。
本稿では,よく設計されたディープニューラルネットワークを用いて2D-3D登録を行う,スパースセマンティックマップに基づく単眼位置推定法を提案する。
論文 参考訳(メタデータ) (2022-10-10T10:29:07Z) - A Survey on Visual Map Localization Using LiDARs and Cameras [0.0]
視覚マップのローカライゼーションを2段階プロセスとして定義する。
位置認識の段階では、視覚センサ出力とジオタグ付き地図領域の集合とを比較して、地図内の車両の初期位置を決定する。
地図距離定位の段階では、車両が地図を横切りながら追跡され、視界センサの出力と現在の地図の面積を連続的に調整する。
論文 参考訳(メタデータ) (2022-08-05T20:11:18Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - RoadMap: A Light-Weight Semantic Map for Visual Localization towards
Autonomous Driving [10.218935873715413]
低コストのカメラとコンパクトな視覚的セマンティックマップに依存する軽量なローカライゼーションソリューションを提案する。
地図は簡単に作成され、センサリッチな車両によってクラウドソースで更新される。
実世界の実験で提案したマップの性能を検証し,他のアルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-06-04T14:55:10Z) - Radar-based Automotive Localization using Landmarks in a Multimodal
Sensor Graph-based Approach [0.0]
本稿では,自動車用レーダによる局部化の問題に対処する。
システムは抽象層としてランドマークとオドメトリ情報を使用する。
単一のセマンティックランドマークマップが、すべてのセンサーで使用され、維持される。
論文 参考訳(メタデータ) (2021-04-29T07:35:20Z) - LiveMap: Real-Time Dynamic Map in Automotive Edge Computing [14.195521569220448]
LiveMapは、接続された車両のデータをサブ秒でクラウドソーシングし、道路上のオブジェクトを検出し、一致させ、追跡するリアルタイムダイナミックマップです。
車両の計算を適応的にオフロードできるlivemapの制御プレーンを開発した。
小型テストベッド上でLiveMapを実装し,大規模ネットワークシミュレータを開発した。
論文 参考訳(メタデータ) (2020-12-16T15:00:49Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。