論文の概要: PLVS: A SLAM System with Points, Lines, Volumetric Mapping, and 3D
Incremental Segmentation
- arxiv url: http://arxiv.org/abs/2309.10896v1
- Date: Tue, 19 Sep 2023 19:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 17:53:42.697016
- Title: PLVS: A SLAM System with Points, Lines, Volumetric Mapping, and 3D
Incremental Segmentation
- Title(参考訳): PLVS:ポイント,ライン,ボリュームマッピング,3次元インクリメンタルセグメンテーションを備えたSLAMシステム
- Authors: Luigi Freda
- Abstract要約: PLVSは、スパースSLAM、ボリュームマッピング、3Dインクリメンタルセグメンテーションを利用するリアルタイムシステムである。
PLVSフレームワークの質的,定量的な評価を公開データセット上で行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This document presents PLVS: a real-time system that leverages sparse SLAM,
volumetric mapping, and 3D unsupervised incremental segmentation. PLVS stands
for Points, Lines, Volumetric mapping, and Segmentation. It supports RGB-D and
Stereo cameras, which may be optionally equipped with IMUs. The SLAM module is
keyframe-based, and extracts and tracks sparse points and line segments as
features. Volumetric mapping runs in parallel with respect to the SLAM
front-end and generates a 3D reconstruction of the explored environment by
fusing point clouds backprojected from keyframes. Different volumetric mapping
methods are supported and integrated in PLVS. We use a novel reprojection error
to bundle-adjust line segments. This error exploits available depth information
to stabilize the position estimates of line segment endpoints. An incremental
and geometric-based segmentation method is implemented and integrated for RGB-D
cameras in the PLVS framework. We present qualitative and quantitative
evaluations of the PLVS framework on some publicly available datasets. The
appendix details the adopted stereo line triangulation method and provides a
derivation of the Jacobians we used for line error terms. The software is
available as open-source.
- Abstract(参考訳): 本論文では,スパースSLAM,ボリュームマッピング,非教師なしインクリメンタルセグメンテーションを利用したリアルタイムシステムPLVSについて述べる。
PLVS は Points, Lines, Volumetric Mapping, Segmentation の略である。
RGB-Dとステレオカメラをサポートしており、オプションでIMUを搭載している。
SLAMモジュールはキーフレームベースで、スパースポイントとラインセグメントを機能として抽出し追跡する。
ボリュームマッピングはSLAMフロントエンドに対して並列に実行され、キーフレームからバックプロジェクションされた点雲を融合することにより、探索された環境の3次元再構築を生成する。
PLVSには様々なボリュームマッピング方法がサポートされている。
バンドル調整ラインセグメントに新しい再投影エラーを用いる。
この誤差は利用可能な深度情報を利用して線分エンドポイントの位置推定を安定化する。
PLVSフレームワークのRGB-Dカメラにインクリメンタルで幾何学的なセグメンテーション手法を実装し,統合する。
PLVSフレームワークの質的,定量的な評価を公開データセット上で行う。
付録では、採用されたステレオ線三角法を詳述し、線誤差項に使用したヤコビアンを導出する。
ソフトウェアはオープンソースとして利用可能である。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - Representing 3D sparse map points and lines for camera relocalization [1.2974519529978974]
軽量ニューラルネットワークが3Dポイントとラインの両方の特徴を表現するためにどのように学習できるかを示す。
テストにおいて,本手法は,最先端の学習手法に対する最も顕著な向上を図っている。
論文 参考訳(メタデータ) (2024-02-28T03:07:05Z) - LDL: Line Distance Functions for Panoramic Localization [22.46846444866008]
線分を用いた3次元地図にパノラマをローカライズするアルゴリズム LDL を導入する。
提案手法は,パノラマ画像と3次元地図内のラインの全体分布を効果的に観察する。
論文 参考訳(メタデータ) (2023-08-27T02:57:07Z) - LiDAR-Camera Panoptic Segmentation via Geometry-Consistent and
Semantic-Aware Alignment [63.83894701779067]
我々は,最初のLiDAR-Camera Panoptic NetworkであるLCPSを提案する。
提案手法では,LiDAR-Camera融合を3段階に分けて行う。
我々の融合戦略は、NuScenesデータセット上のLiDARのみのベースラインに対して、約6.9%のPQ性能を改善する。
論文 参考訳(メタデータ) (2023-08-03T10:57:58Z) - LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments [29.539527817449923]
本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
本研究の目的は,大FoV全方位カメラを用いた点線オドメトリーの可能性を明らかにすることである。
論文 参考訳(メタデータ) (2023-06-11T12:26:41Z) - PVT-SSD: Single-Stage 3D Object Detector with Point-Voxel Transformer [75.2251801053839]
単段3次元検出用ポイント・ボクセル変換器(PVT-SSD)を提案する。
本稿では,voxel から長時間のコンテキストを安価に取得できる Point-Voxel Transformer (PVT) モジュールを提案する。
いくつかの自律走行ベンチマーク実験は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2023-05-11T07:37:15Z) - 3D Line Mapping Revisited [86.13455066577657]
LIMAPは、3Dラインマッピングのためのライブラリで、多視点画像から3Dラインマップを堅牢かつ効率的に作成する。
私たちのコードは、既存のポイントベースのStructure-from-Motionメソッドとシームレスに統合されます。
私たちの堅牢な3Dラインマップは、新たな研究方向も開きます。
論文 参考訳(メタデータ) (2023-03-30T16:14:48Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - UPDesc: Unsupervised Point Descriptor Learning for Robust Registration [54.95201961399334]
UPDescは、ロバストポイントクラウド登録のためのポイント記述子を学習するための教師なしの方法である。
学習した記述子は既存の教師なし手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-08-05T17:11:08Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。