論文の概要: Robust Place Recognition using an Imaging Lidar
- arxiv url: http://arxiv.org/abs/2103.02111v1
- Date: Wed, 3 Mar 2021 01:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-06 21:29:48.884109
- Title: Robust Place Recognition using an Imaging Lidar
- Title(参考訳): イメージングlidarを用いたロバスト位置認識
- Authors: Tixiao Shan, Brendan Englot, Fabio Duarte, Carlo Ratti, Daniela Rus
- Abstract要約: 本研究では,画像lidarを用いたロバストなリアルタイム位置認識手法を提案する。
本手法は真不変であり,逆再訪と逆逆再訪に対処できる。
- 参考スコア(独自算出の注目度): 45.37172889338924
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose a methodology for robust, real-time place recognition using an
imaging lidar, which yields image-quality high-resolution 3D point clouds.
Utilizing the intensity readings of an imaging lidar, we project the point
cloud and obtain an intensity image. ORB feature descriptors are extracted from
the image and encoded into a bag-of-words vector. The vector, used to identify
the point cloud, is inserted into a database that is maintained by DBoW for
fast place recognition queries. The returned candidate is further validated by
matching visual feature descriptors. To reject matching outliers, we apply PnP,
which minimizes the reprojection error of visual features' positions in
Euclidean space with their correspondences in 2D image space, using RANSAC.
Combining the advantages from both camera and lidar-based place recognition
approaches, our method is truly rotation-invariant and can tackle reverse
revisiting and upside-down revisiting. The proposed method is evaluated on
datasets gathered from a variety of platforms over different scales and
environments. Our implementation is available at
https://git.io/imaging-lidar-place-recognition
- Abstract(参考訳): 画像品質の高い3D点群を生成するイメージングライダーを用いたロバストなリアルタイム位置認識手法を提案する。
イメージングライダーの強度測定値を利用して点群を投影し、強度画像を得る。
ORB特徴ディスクリプタは画像から抽出され、bug-of-wordsベクターにエンコードされる。
ベクトルは点雲を識別するために使用され、DBoWが高速な位置認識クエリのために保持するデータベースに挿入される。
返された候補は、視覚特徴記述子マッチングによってさらに検証される。
そこで我々は,2次元画像空間における対応関係を用いてユークリッド空間における視覚特徴の位置の再投影誤差を最小化するpnpを適用した。
カメラとlidarに基づく位置認識手法の利点を組み合わせることで,本手法は真に回転不変であり,逆再訪と逆再訪に対処できる。
提案手法は, さまざまなスケールと環境の異なるプラットフォームから収集されたデータセット上で評価される。
私たちの実装はhttps://git.io/imaging-lidar-place-recognitionで利用可能です。
関連論文リスト
- FaVoR: Features via Voxel Rendering for Camera Relocalization [23.7893950095252]
カメラ再ローカライズ手法は、高密度画像アライメントから、クエリ画像からの直接カメラポーズ回帰まで様々である。
本稿では,世界規模で疎密だが局所的に密集した2次元特徴の3次元表現を活用する新しい手法を提案する。
一連のフレーム上でのランドマークの追跡と三角測量により、追跡中に観察された画像パッチ記述子をレンダリングするために最適化されたスパースボクセルマップを構築する。
論文 参考訳(メタデータ) (2024-09-11T18:58:16Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - BEVPlace: Learning LiDAR-based Place Recognition using Bird's Eye View
Images [20.30997801125592]
位置認識における異なる表現の可能性、すなわち鳥の視線(BEV)画像について検討する。
BEV画像上で訓練された単純なVGGNetは、わずかな視点変化のシーンにおける最先端の場所認識手法と同等のパフォーマンスを達成する。
そこで我々は,クエリクラウドの位置を推定し,位置認識の利用を拡大する手法を開発した。
論文 参考訳(メタデータ) (2023-02-28T05:37:45Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - SSC: Semantic Scan Context for Large-Scale Place Recognition [13.228580954956342]
我々は、記述子の表現能力を向上させるために、高レベルの機能、すなわち意味論の利用について検討する。
本稿では,シーンをより効果的に表現するための意味情報を探る,新しいグローバルな記述子Semantic Scan Contextを提案する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-07-01T11:51:19Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Unconstrained Matching of 2D and 3D Descriptors for 6-DOF Pose
Estimation [44.66818851668686]
我々は2D点と3D点とに対応する特徴記述子のデータセットを生成する。
テスト時に画像のポーズをローカライズするために,クエリ画像からキーポイントと特徴記述子を抽出する。
マッチングされた特徴の位置は、クエリ画像の位置と向きを予測する頑健なポーズ推定アルゴリズムで使用される。
論文 参考訳(メタデータ) (2020-05-29T11:17:32Z) - Learning and Matching Multi-View Descriptors for Registration of Point
Clouds [48.25586496457587]
まず,複数視点の画像から学習した多視点局所記述子を3次元キーポイント記述のために提案する。
そこで我々は,効率的な推論に基づいて,外乱マッチングを拒否することを目的とした,ロバストなマッチング手法を開発した。
我々は、パブリックスキャンとマルチビューステレオデータセットの登録に対する我々のアプローチの強化を実証した。
論文 参考訳(メタデータ) (2018-07-16T01:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。