論文の概要: Voxel Map for Visual SLAM
- arxiv url: http://arxiv.org/abs/2003.02247v1
- Date: Wed, 4 Mar 2020 18:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:34:06.941415
- Title: Voxel Map for Visual SLAM
- Title(参考訳): Visual SLAMのためのVoxel Map
- Authors: Manasi Muglikar, Zichao Zhang and Davide Scaramuzza
- Abstract要約: 視覚SLAMのための点を効率的にマッピングするボクセルマップ表現を提案する。
本手法は,カメラの視野に落下することを幾何的に保証し,隠蔽点を特定・除去できる。
実験結果から,我々のボクセルマップ表現は5sの地図と同等に効率的であり,EuRoCデータセット上での局所化精度(平均46%の改善)が有意に高いことがわかった。
- 参考スコア(独自算出の注目度): 57.07800982410967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In modern visual SLAM systems, it is a standard practice to retrieve
potential candidate map points from overlapping keyframes for further feature
matching or direct tracking. In this work, we argue that keyframes are not the
optimal choice for this task, due to several inherent limitations, such as weak
geometric reasoning and poor scalability. We propose a voxel-map representation
to efficiently retrieve map points for visual SLAM. In particular, we organize
the map points in a regular voxel grid. Visible points from a camera pose are
queried by sampling the camera frustum in a raycasting manner, which can be
done in constant time using an efficient voxel hashing method. Compared with
keyframes, the retrieved points using our method are geometrically guaranteed
to fall in the camera field-of-view, and occluded points can be identified and
removed to a certain extend. This method also naturally scales up to large
scenes and complicated multicamera configurations. Experimental results show
that our voxel map representation is as efficient as a keyframe map with 5
keyframes and provides significantly higher localization accuracy (average 46%
improvement in RMSE) on the EuRoC dataset. The proposed voxel-map
representation is a general approach to a fundamental functionality in visual
SLAM and widely applicable.
- Abstract(参考訳): 現代のビジュアルスラムシステムでは、機能マッチングや直接追跡のために重なり合ったキーフレームから潜在的な候補マップポイントを取得する標準的なプラクティスである。
本研究では、弱幾何学的推論やスケーラビリティの低下など、いくつかの固有の制約のため、キーフレームがこのタスクの最適選択ではないと論じる。
視覚SLAMのためのマップポイントを効率的に検索するボクセルマップ表現を提案する。
特に、通常のボクセルグリッドにマップポイントを整理する。
カメラポーズからの可視点は、効率的なボクセルハッシュ法を用いて一定時間にカメラフラストラムをレイキャスト方式でサンプリングすることによりクエリされる。
キーフレームと比較して,本手法を用いて抽出した点がカメラ視野に落下することを幾何的に保証し,隠蔽点を特定・除去することができる。
この方法はまた、大きなシーンと複雑なマルチカメラ構成まで自然にスケールする。
実験の結果,我々のvoxelマップ表現は,キーフレーム5のキーフレームマップと同じくらい効率的であり,eurocデータセット上でのローカライズ精度(平均46%改善)が有意に高いことがわかった。
提案したボクセルマップ表現は、視覚SLAMの基本機能に対する一般的なアプローチであり、広く適用できる。
関連論文リスト
- FaVoR: Features via Voxel Rendering for Camera Relocalization [23.7893950095252]
カメラ再ローカライズ手法は、高密度画像アライメントから、クエリ画像からの直接カメラポーズ回帰まで様々である。
本稿では,世界規模で疎密だが局所的に密集した2次元特徴の3次元表現を活用する新しい手法を提案する。
一連のフレーム上でのランドマークの追跡と三角測量により、追跡中に観察された画像パッチ記述子をレンダリングするために最適化されたスパースボクセルマップを構築する。
論文 参考訳(メタデータ) (2024-09-11T18:58:16Z) - Representing 3D sparse map points and lines for camera relocalization [1.2974519529978974]
軽量ニューラルネットワークが3Dポイントとラインの両方の特徴を表現するためにどのように学習できるかを示す。
テストにおいて,本手法は,最先端の学習手法に対する最も顕著な向上を図っている。
論文 参考訳(メタデータ) (2024-02-28T03:07:05Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Dense RGB SLAM with Neural Implicit Maps [34.37572307973734]
ニューラル暗黙マップ表現を用いた高密度RGB SLAM法を提案する。
提案手法は,映像フレームの描画と入力を一致させることで,カメラの動きとニューラル暗黙マップを同時に解く。
提案手法は,従来の手法よりも良好な結果が得られ,最近のRGB-D SLAM法を超えている。
論文 参考訳(メタデータ) (2023-01-21T09:54:07Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Pixel-Perfect Structure-from-Motion with Featuremetric Refinement [96.73365545609191]
複数視点からの低レベル画像情報を直接アライメントすることで、動きからの2つの重要なステップを洗練する。
これにより、様々なキーポイント検出器のカメラポーズとシーン形状の精度が大幅に向上する。
本システムは,大規模な画像コレクションに容易にスケールできるので,クラウドソースによる大規模なローカライゼーションを実現することができる。
論文 参考訳(メタデータ) (2021-08-18T17:58:55Z) - Object-Augmented RGB-D SLAM for Wide-Disparity Relocalisation [3.888848425698769]
本稿では、一貫したオブジェクトマップを構築し、地図内のオブジェクトのセントロイドに基づいて再局在を行うことができるオブジェクト拡張RGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2021-08-05T11:02:25Z) - Accurate Grid Keypoint Learning for Efficient Video Prediction [87.71109421608232]
キーポイントベースのビデオ予測手法は、トレーニングやデプロイメントにおいて、かなりの計算資源を消費することができる。
本稿では,長期的効率的な映像予測のための頑健で説明可能な中間キーポイント表現を目的とした,新しいグリッドキーポイント学習フレームワークを設計する。
提案手法は,計算資源の98%以上を節約しつつ,最先端のビデオ予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-28T05:04:30Z) - RPVNet: A Deep and Efficient Range-Point-Voxel Fusion Network for LiDAR
Point Cloud Segmentation [28.494690309193068]
RPVNetと呼ばれる、新しいレンジポイント・ボクセル融合ネットワークを提案する。
このネットワークでは,これら3つの視点を相互に相互に相互作用する深層融合フレームワークを考案する。
この効率的な相互作用と比較的低いボクセル解像度を利用することで、より効率的であることが証明された。
論文 参考訳(メタデータ) (2021-03-24T04:24:12Z) - Graph-PCNN: Two Stage Human Pose Estimation with Graph Pose Refinement [54.29252286561449]
グラフPCNNと呼ばれる2段階のグラフベースおよびモデルに依存しないフレームワークを提案する。
第1段階では、粗局化結果を得るために熱マップ回帰ネットワークを適用し、ガイドポイントと呼ばれる一連の提案キーポイントをサンプリングする。
第2段階では、各案内点について、ローカライゼーションにより異なる視覚特徴を抽出する。
ガイドされた点間の関係は、より正確なローカライゼーション結果を得るためにグラフポーズ精製モジュールによって探索される。
論文 参考訳(メタデータ) (2020-07-21T04:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。