論文の概要: View-Invariant Localization using Semantic Objects in Changing
Environments
- arxiv url: http://arxiv.org/abs/2209.14426v1
- Date: Wed, 28 Sep 2022 21:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:58:05.385561
- Title: View-Invariant Localization using Semantic Objects in Changing
Environments
- Title(参考訳): セマンティックオブジェクトを用いた環境変化におけるビュー不変の局所化
- Authors: Jacqueline Ankenbauer, Kaveh Fathian, Jonathan P. How
- Abstract要約: 本稿では,参照マップにおける車両のリアルタイムな位置決めと移動追跡のための新しいフレームワークを提案する。
中心となる考え方は、車両が観測した意味オブジェクトをマッピングし、対応するオブジェクトに参照マップに登録することである。
- 参考スコア(独自算出の注目度): 42.552452681642364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel framework for real-time localization and
egomotion tracking of a vehicle in a reference map. The core idea is to map the
semantic objects observed by the vehicle and register them to their
corresponding objects in the reference map. While several recent works have
leveraged semantic information for cross-view localization, the main
contribution of this work is a view-invariant formulation that makes the
approach directly applicable to any viewpoint configuration for which objects
are detectable. Another distinctive feature is robustness to changes in the
environment/objects due to a data association scheme suited for extreme outlier
regimes (e.g., 90% association outliers). To demonstrate our framework, we
consider an example of localizing a ground vehicle in a reference object map
using only cars as objects. While only a stereo camera is used for the ground
vehicle, we consider reference maps constructed a priori from ground viewpoints
using stereo cameras and Lidar scans, and georeferenced aerial images captured
at a different date to demonstrate the framework's robustness to different
modalities, viewpoints, and environment changes. Evaluations on the KITTI
dataset show that over a 3.7 km trajectory, localization occurs in 36 sec and
is followed by real-time egomotion tracking with an average position error of
8.5 m in a Lidar reference map, and on an aerial object map where 77% of
objects are outliers, localization is achieved in 71 sec with an average
position error of 7.9 m.
- Abstract(参考訳): 本稿では,参照マップにおける車両のリアルタイム位置推定とエゴモーション追跡のための新しい枠組みを提案する。
中心となる考え方は、車両が観測した意味オブジェクトをマッピングし、対応するオブジェクトに参照マップに登録することである。
いくつかの最近の研究では、意味情報をクロスビューのローカライゼーションに活用しているが、この研究の主な貢献は、オブジェクトが検出可能なあらゆる視点設定に直接適用できるようにするビュー不変の定式化である。
もうひとつの特徴は、極端な外れ値(例えば、90%のアソシエーション異常値)に適したデータアソシエーションスキームによる環境/オブジェクトの変化に対する堅牢性である。
本手法を実証するために,車両のみをオブジェクトとして参照オブジェクトマップに地上車両をローカライズする例を考察する。
地上車両にはステレオカメラのみを用いるが、ステレオカメラとライダースキャンを用いて地上視点から構築した参照地図と、異なる日に撮影された地理参照空中画像を比較して、異なるモダリティ、視点、環境変化に対するフレームワークの堅牢性を示す。
KITTIデータセットの評価では、36秒で3.7kmの軌道でローカライゼーションが行われ、Lidar参照マップでは平均位置誤差8.5mのリアルタイムなエゴモーション追跡が行われ、オブジェクトの77%が外れ値である空中オブジェクトマップでは、平均位置誤差7.9mの71秒でローカライゼーションが達成されている。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place
Recognition under Adverse Conditions [29.828201168816243]
本研究では,3次元マップを必要とせずに,シーン内の動的物体の検出を支援するために,先行マップを活用できるかどうかを検討する。
提案手法は,対象物検出の初期セットを洗練し,事前マップを用いて高精度な検出のサブセットを生成するアルゴリズムである。
論文 参考訳(メタデータ) (2023-06-30T10:46:51Z) - Sparse Semantic Map-Based Monocular Localization in Traffic Scenes Using
Learned 2D-3D Point-Line Correspondences [29.419138863851526]
クエリー画像が与えられた場合、カメラのポーズが先行マップに対応すると見積もることが目的である。
既存のアプローチは、登録問題を解決するために、機能レベルでの高密度な点記述子に大きく依存している。
本稿では,よく設計されたディープニューラルネットワークを用いて2D-3D登録を行う,スパースセマンティックマップに基づく単眼位置推定法を提案する。
論文 参考訳(メタデータ) (2022-10-10T10:29:07Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Coarse-to-fine Semantic Localization with HD Map for Autonomous Driving
in Structural Scenes [1.1024591739346292]
カメラを主センサとする自動運転のためのHDマップを用いたコスト効率の高い車両位置決めシステムを提案する。
視覚的セマンティクスをHDマップのランドマークにマップするデータアソシエーション問題として視覚に基づくローカライゼーションを定式化する。
本手法を2つのデータセット上で評価し,提案手法が異なる運転シナリオにおいて有望なローカライゼーション結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-06T11:58:55Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。