論文の概要: RE-TRIP : Reflectivity Instance Augmented Triangle Descriptor for 3D Place Recognition
- arxiv url: http://arxiv.org/abs/2505.16165v1
- Date: Thu, 22 May 2025 03:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.005042
- Title: RE-TRIP : Reflectivity Instance Augmented Triangle Descriptor for 3D Place Recognition
- Title(参考訳): RE-TRIP : 3次元位置認識のための反射率インスタンス拡張三角形記述子
- Authors: Yechan Park, Gyuhyeon Pak, Euntai Kim,
- Abstract要約: 本稿では,RE-TRIPという3次元位置認識のための新しい記述子を提案する。
この新しいディスクリプタは、幾何計測と反射率の両方を活用して堅牢性を高める。
本稿では,RE-TRIPの有効性を示す一連の実験を行った。
- 参考スコア(独自算出の注目度): 14.095215136905553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While most people associate LiDAR primarily with its ability to measure distances and provide geometric information about the environment (via point clouds), LiDAR also captures additional data, including reflectivity or intensity values. Unfortunately, when LiDAR is applied to Place Recognition (PR) in mobile robotics, most previous works on LiDAR-based PR rely only on geometric measurements, neglecting the additional reflectivity information that LiDAR provides. In this paper, we propose a novel descriptor for 3D PR, named RE-TRIP (REflectivity-instance augmented TRIangle descriPtor). This new descriptor leverages both geometric measurements and reflectivity to enhance robustness in challenging scenarios such as geometric degeneracy, high geometric similarity, and the presence of dynamic objects. To implement RE-TRIP in real-world applications, we further propose (1) a keypoint extraction method, (2) a key instance segmentation method, (3) a RE-TRIP matching method, and (4) a reflectivity-combined loop verification method. Finally, we conduct a series of experiments to demonstrate the effectiveness of RE-TRIP. Applied to public datasets (i.e., HELIPR, FusionPortable) containing diverse scenarios such as long corridors, bridges, large-scale urban areas, and highly dynamic environments -- our experimental results show that the proposed method outperforms existing state-of-the-art methods in terms of Scan Context, Intensity Scan Context, and STD.
- Abstract(参考訳): ほとんどの人は距離を測り、(点雲を通して)環境に関する幾何学的な情報を提供する能力とLiDARを関連付けるが、LiDARは反射率や強度値を含む追加のデータも取得する。
残念なことに、LiDARがモバイルロボティクスのPlace Recognition(PR)に適用された場合、LiDARベースのPRに関するこれまでのほとんどの研究は、LiDARが提供する追加の反射率情報を無視し、幾何学的測定にのみ依存していた。
本稿では,RE-TRIP(reflectivity-instance augmented TRIangle descriptor)という3次元PRのための新しい記述子を提案する。
この新しい記述子は幾何学的測度と反射率の両方を活用し、幾何学的縮退、高幾何学的類似性、動的物体の存在といった挑戦的なシナリオにおいて堅牢性を高める。
実世界のアプリケーションにRE-TRIPを実装するために,(1)キーポイント抽出法,(2)キーインスタンス分割法,(3)RE-TRIPマッチング法,(4)反射率結合ループ検証法を提案する。
最後に,RE-TRIPの有効性を示す一連の実験を行った。
長い廊下,橋梁,大規模都市部,高ダイナミック環境などの多様なシナリオを含む公開データセット(HELIPR,FusionPortable)に適用することにより,提案手法は,Scan Context,Intensity Scan Context,STDなど,既存の最先端手法よりも優れていることを示す。
関連論文リスト
- Joint Depth and Reflectivity Estimation using Single-Photon LiDAR [9.842115005951651]
高精度3Dビジョンタスクの先駆技術として,シングルフォト光検出・照準技術 (SP-LiDAR) が登場している。
タイムスタンプは、パルス走行時間(深度)と、物体によって反射される光子の数(反射率)の2つの相補的な情報を符号化する
論文 参考訳(メタデータ) (2025-05-19T15:33:28Z) - LaRI: Layered Ray Intersections for Single-view 3D Geometric Reasoning [75.9814389360821]
層状光線交差(LaRI)は、1つの画像から未知の幾何学的推論を行う新しい方法である。
コンパクトで階層的な表現から恩恵を受けることで、LaRIは完全で効率的でビュー整合な幾何学的推論を可能にする。
3Dオブジェクトやシーンを含む、合成および実世界のデータのための完全なトレーニングデータ生成パイプラインを構築します。
論文 参考訳(メタデータ) (2025-04-25T15:31:29Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - GauU-Scene V2: Assessing the Reliability of Image-Based Metrics with Expansive Lidar Image Dataset Using 3DGS and NeRF [2.4673377627220323]
本稿では,新しい3次元表現手法を用いたマルチモーダルな大規模シーン再構築ベンチマークを提案する。
GauU-Sceneは6.5平方キロメートル以上をカバーし、LiDARの地上真実と組み合わせた総合的なRGBデータセットを備えている。
ドローンによるデータセットのためのLiDARおよび画像アライメント手法を最初に提案する。
論文 参考訳(メタデータ) (2024-04-07T08:51:31Z) - Reflectivity Is All You Need!: Advancing LiDAR Semantic Segmentation [11.684330305297523]
本稿では,LiDARセマンティックセマンティックセグメンテーションフレームワークにおける校正強度(リフレクティビティとも呼ばれる)の利点について検討する。
オフロードシナリオでは,反射率による強度の置き換えにより,Unionよりも平均的なインターセクションが4%向上することを示す。
都市環境におけるセマンティックセグメンテーションにおけるキャリブレーション強度の利用の可能性を示す。
論文 参考訳(メタデータ) (2024-03-19T22:57:03Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Few-shot Non-line-of-sight Imaging with Signal-surface Collaborative
Regularization [18.466941045530408]
非視線イメージング技術は、多重反射光からターゲットを再構成することを目的としている。
最小限の測定回数でノイズロバストを再現する信号表面の協調正規化フレームワークを提案する。
我々のアプローチは、救助活動や自律運転といったリアルタイム非視線画像アプリケーションにおいて大きな可能性を秘めている。
論文 参考訳(メタデータ) (2022-11-21T11:19:20Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Intensity Scan Context: Coding Intensity and Geometry Relations for Loop
Closure Detection [26.209412893744094]
ループ閉鎖検出は同時局所化とマッピング(SLAM)において不可欠かつ困難な問題である
既存の3次元ループ閉包検出の研究は、しばしば局所的あるいは大域的幾何学的のみの記述子のマッチングを利用する。
我々は,幾何学的特徴と強度特性の両方を探求する,新しいグローバル記述子であるインテンシティ・スキャン・コンテキスト(ISC)を提案する。
論文 参考訳(メタデータ) (2020-03-12T08:11:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。