論文の概要: SuperPoint-SLAM3: Augmenting ORB-SLAM3 with Deep Features, Adaptive NMS, and Learning-Based Loop Closure
- arxiv url: http://arxiv.org/abs/2506.13089v1
- Date: Mon, 16 Jun 2025 04:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.485426
- Title: SuperPoint-SLAM3: Augmenting ORB-SLAM3 with Deep Features, Adaptive NMS, and Learning-Based Loop Closure
- Title(参考訳): SuperPoint-SLAM3: 深い機能、適応NMS、学習ベースのループクロージャを備えたORB-SLAM3の拡張
- Authors: Shahram Najam Syed, Ishir Roongta, Kavin Ravie, Gangadhar Nageswar,
- Abstract要約: 我々は,ORBを自己監督型SuperPoint検出器-ディスクリプタに置き換えるドロップインアップグレードであるSuperPoint-SLAM3を紹介する。
SuperPoint-SLAM3は平均翻訳誤差を4.15%から0.34%に、回転誤差を0.0027 deg/mから0.0010 deg/mに下げる。
- 参考スコア(独自算出の注目度): 0.42855555838080844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual simultaneous localization and mapping (SLAM) must remain accurate under extreme viewpoint, scale and illumination variations. The widely adopted ORB-SLAM3 falters in these regimes because it relies on hand-crafted ORB keypoints. We introduce SuperPoint-SLAM3, a drop-in upgrade that (i) replaces ORB with the self-supervised SuperPoint detector--descriptor, (ii) enforces spatially uniform keypoints via adaptive non-maximal suppression (ANMS), and (iii) integrates a lightweight NetVLAD place-recognition head for learning-based loop closure. On the KITTI Odometry benchmark SuperPoint-SLAM3 reduces mean translational error from 4.15% to 0.34% and mean rotational error from 0.0027 deg/m to 0.0010 deg/m. On the EuRoC MAV dataset it roughly halves both errors across every sequence (e.g., V2\_03: 1.58% -> 0.79%). These gains confirm that fusing modern deep features with a learned loop-closure module markedly improves ORB-SLAM3 accuracy while preserving its real-time operation. Implementation, pretrained weights and reproducibility scripts are available at https://github.com/shahram95/SuperPointSLAM3.
- Abstract(参考訳): 視覚的同時局所化とマッピング(SLAM)は、極端な視点、スケール、照明のバリエーションの下で正確でなければならない。
これらの体制において広く採用されているORB-SLAM3のファルターは、手作りのORBキーポイントに依存しているためである。
われわれはSuperPoint-SLAM3を発表した。
i)ORBを自己監督型SuperPoint検出器-ディスクリプタに置き換える。
(二)適応的非最大抑圧(ANMS)により空間的に均一なキーポイントを強制し、
(iii)学習に基づくループ閉鎖のための軽量なNetVLAD位置認識ヘッドを統合する。
KITTI Odometryベンチマークでは、SuperPoint-SLAM3は平均翻訳誤差を4.15%から0.34%に、回転誤差を0.0027 deg/mから0.0010 deg/mに下げている。
EuRoC MAVデータセットでは、各シーケンスのエラー(例えば、V2\_03: 1.58% -> 0.79%)をほぼ半減する。
これらの結果は、学習したループ閉鎖モジュールで最新の深い機能を融合することで、リアルタイム操作を維持しながらORB-SLAM3の精度が著しく向上することを確認した。
実装、事前訓練されたウェイト、再現性スクリプトはhttps://github.com/shahram95/SuperPointSLAM3.comで入手できる。
関連論文リスト
- Large-Scale Gaussian Splatting SLAM [21.253966057320383]
本稿では,LSG-SLAMと呼ばれるステレオカメラを用いた大規模3DGSベースの視覚SLAMを提案する。
EuRocとKITTIデータセットに対する広範な評価により、LSG-SLAMは既存のNeural、3DGSベースの、さらには従来のアプローチよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-05-15T03:00:32Z) - FlashSLAM: Accelerated RGB-D SLAM for Real-Time 3D Scene Reconstruction with Gaussian Splatting [14.130327598928778]
FlashSLAMは、3Dガウススプラッティングを有効かつ堅牢な3Dシーン再構築に活用する新しいSLAMアプローチである。
既存の3DGSベースのSLAMメソッドは、スパースビューの設定や大きなカメラの動きの間、しばしば不足する。
提案手法は,従来手法よりも平均追跡精度を最大92%向上させる。
論文 参考訳(メタデータ) (2024-12-01T05:44:38Z) - Splat-SLAM: Globally Optimized RGB-only SLAM with 3D Gaussians [87.48403838439391]
3D Splattingは、RGBのみの高密度SLAMの幾何学と外観の強力な表現として登場した。
本稿では,高密度な3次元ガウス写像表現を持つRGBのみのSLAMシステムを提案する。
Replica、TUM-RGBD、ScanNetのデータセットに対する実験は、グローバルに最適化された3Dガウスの有効性を示している。
論文 参考訳(メタデータ) (2024-05-26T12:26:54Z) - Monocular Gaussian SLAM with Language Extended Loop Closure [32.0451093146944]
既存の方法ではRGB-D SLAMの促進効果が得られたが、単分子ケースの研究は乏しい。
本稿では,ドリフト補正と高忠実度再構成が可能な言語拡張ループクロージャモジュールを備えた単分子ガウスSLAMMG-SLAMを提案する。
我々のシステムは、追跡とマッピングの両方において複数の挑戦的なデータセットに対して有望な結果を示し、既存のRGB-D手法を超越している。
論文 参考訳(メタデータ) (2024-05-22T15:33:23Z) - GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。