論文の概要: Mapping and Localization Using LiDAR Fiducial Markers
- arxiv url: http://arxiv.org/abs/2502.03510v1
- Date: Wed, 05 Feb 2025 17:33:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:50.697723
- Title: Mapping and Localization Using LiDAR Fiducial Markers
- Title(参考訳): LiDARフィデューシャルマーカーを用いたマッピングと位置決め
- Authors: Yibo Liu,
- Abstract要約: Dissertationは、LiDARフィデューシャルマーカーを用いたマッピングとローカライゼーションのための新しいフレームワークを提案する。
Intensity Image-based LiDAR Fiducial Marker (IFM)システムを導入する。
LFMに基づく新しいマッピングとローカライズ手法は、順序のない低オーバーラップ点雲を登録する。
- 参考スコア(独自算出の注目度): 0.8702432681310401
- License:
- Abstract: LiDAR sensors are essential for autonomous systems, yet LiDAR fiducial markers (LFMs) lag behind visual fiducial markers (VFMs) in adoption and utility. Bridging this gap is vital for robotics and computer vision but challenging due to the sparse, unstructured nature of 3D LiDAR data and 2D-focused fiducial marker designs. This dissertation proposes a novel framework for mapping and localization using LFMs is proposed to benefit a variety of real-world applications, including the collection of 3D assets and training data for point cloud registration, 3D map merging, Augmented Reality (AR), and many more. First, an Intensity Image-based LiDAR Fiducial Marker (IFM) system is introduced, using thin, letter-sized markers compatible with VFMs. A detection method locates 3D fiducials from intensity images, enabling LiDAR pose estimation. Second, an enhanced algorithm extends detection to 3D maps, increasing marker range and facilitating tasks like 3D map merging. This method leverages both intensity and geometry, overcoming limitations of geometry-only detection approaches. Third, a new LFM-based mapping and localization method registers unordered, low-overlap point clouds. It employs adaptive threshold detection and a two-level graph framework to solve a maximum a-posteriori (MAP) problem, optimizing point cloud and marker poses. Additionally, the Livox-3DMatch dataset is introduced, improving learning-based multiview point cloud registration methods. Extensive experiments with various LiDAR models in diverse indoor and outdoor scenes demonstrate the effectiveness and superiority of the proposed framework.
- Abstract(参考訳): LiDARセンサーは自律システムに必須であるが、LiDARフィデューシャルマーカー(LFM)は視覚的フィデューシャルマーカー(VFM)に遅れている。
このギャップを埋めることはロボティクスとコンピュータビジョンにとって不可欠だが、3D LiDARデータと2D中心のフィジュアルマーカーの設計の粗末で非構造的な性質のために難しい。
この論文では、ポイントクラウド登録のための3Dアセットの収集やトレーニングデータ、3Dマップのマージ、3DAR(Augmented Reality, Augmented Reality, AR)など、さまざまな現実世界のアプリケーションに対して、LFMを用いたマッピングとローカライズのための新しいフレームワークを提案する。
まず、VFMと互換性のある細い文字サイズのマーカーを用いて、Intensity Image-based LiDAR Fiducial Marker (IFM)システムを導入する。
強度画像から3D画像を検出し、LiDARのポーズ推定を可能にする。
第二に、強化されたアルゴリズムは検出を3Dマップに拡張し、マーカー範囲を拡大し、3Dマップのマージのようなタスクを容易にする。
この手法は強度と幾何の両方を利用し、幾何のみの検出アプローチの限界を克服する。
第3に、新しい LFM ベースのマッピングとローカライズ手法は、順序のない低オーバーラップ点雲を登録する。
適応しきい値検出と2レベルグラフフレームワークを使用して、最大a-posteriori(MAP)問題を解決し、点雲とマーカーのポーズを最適化する。
さらに、Livox-3DMatchデータセットを導入し、学習ベースのマルチビューポイントクラウド登録方法を改善した。
様々な屋内・屋外シーンにおける多種多様なLiDARモデルによる大規模な実験により,提案手法の有効性と優位性を実証した。
関連論文リスト
- LargeAD: Large-Scale Cross-Sensor Data Pretraining for Autonomous Driving [52.83707400688378]
LargeADは多用途でスケーラブルなフレームワークで、さまざまな現実世界の運転データセットにわたる大規模3D事前トレーニング用に設計されている。
我々のフレームワークは、VFMを利用して2次元画像から意味的にリッチなスーパーピクセルを抽出し、LiDAR点雲に整列して高品質なコントラストサンプルを生成する。
提案手法は,LDARに基づくセグメント化とオブジェクト検出の両面において,線形探索と微調整の両作業において,最先端の手法よりも大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2025-01-07T18:59:59Z) - Cross-Modal Visual Relocalization in Prior LiDAR Maps Utilizing Intensity Textures [17.180614289913994]
近年、クロスモーダルな地域化が注目されている。
そこで我々は,強度テクスチャを利用した先行LiDARマップにおけるモーダルな視覚的再局在システムを提案する。
論文 参考訳(メタデータ) (2024-12-02T09:13:14Z) - L-PR: Exploiting LiDAR Fiducial Marker for Unordered Low Overlap Multiview Point Cloud Registration [5.2357168261831335]
本稿では,非秩序な低重なり点群を登録するL-PRという新しいフレームワークを提案する。
我々はこれらをLiDARフィデューシャルマーカーと呼んでいるが、人気のある AprilTag や ArUco のマーカーと同じである。
提案手法が従来の最先端手法を上回ることを示すため,定性的かつ定量的な実験を行った。
論文 参考訳(メタデータ) (2024-06-05T14:08:13Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - FusionRCNN: LiDAR-Camera Fusion for Two-stage 3D Object Detection [11.962073589763676]
既存の3D検出器は、2段階のパラダイムを採用することで精度を大幅に向上させる。
特に遠く離れた地点では、点雲の広がりは、LiDARのみの精製モジュールがオブジェクトを正確に認識し、配置することを困難にしている。
We propose a novel multi-modality two-stage approach called FusionRCNN, which is effective and efficient fuses point clouds and camera image in the Regions of Interest(RoI)。
FusionRCNNは、強力なSECONDベースラインを6.14%のmAPで大幅に改善し、競合する2段階アプローチよりも優れている。
論文 参考訳(メタデータ) (2022-09-22T02:07:25Z) - FFPA-Net: Efficient Feature Fusion with Projection Awareness for 3D
Object Detection [19.419030878019974]
構造化されていない3D点雲は2D平面に充填され、3D点雲はプロジェクション対応の畳み込み層を用いて高速に抽出される。
データ前処理において、異なるセンサ信号間の対応するインデックスを予め設定する。
2つの新しいプラグアンドプレイ融合モジュールLiCamFuseとBiLiCamFuseが提案されている。
論文 参考訳(メタデータ) (2022-09-15T16:13:19Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。