論文の概要: MoD-SLAM: Monocular Dense Mapping for Unbounded 3D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2402.03762v5
- Date: Fri, 8 Mar 2024 18:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:33:12.779014
- Title: MoD-SLAM: Monocular Dense Mapping for Unbounded 3D Scene Reconstruction
- Title(参考訳): mod-slam:unbounded 3d scene reconstructionのための単眼高密度マッピング
- Authors: Heng Zhou, Zhetao Guo, Shuhong Liu, Lechen Zhang, Qihao Wang, Yuxiang
Ren, Mingrui Li
- Abstract要約: MoD-SLAMは、非有界シーンにおけるリアルタイムな3次元再構成を可能にする、最初のモノクラーNeRFを用いた高密度マッピング法である。
追跡処理にロバストな深度損失項を導入することにより,大規模シーンにおけるより正確なポーズ推定を実現する。
2つの標準データセットを用いた実験により, MoD-SLAMは競争性能を向上し, 3次元再構成の精度を最大30%, 15%向上した。
- 参考スコア(独自算出の注目度): 2.3630527334737104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular SLAM has received a lot of attention due to its simple RGB inputs
and the lifting of complex sensor constraints. However, existing monocular SLAM
systems are designed for bounded scenes, restricting the applicability of SLAM
systems. To address this limitation, we propose MoD-SLAM, the first monocular
NeRF-based dense mapping method that allows 3D reconstruction in real-time in
unbounded scenes. Specifically, we introduce a Gaussian-based unbounded scene
representation approach to solve the challenge of mapping scenes without
boundaries. This strategy is essential to extend the SLAM application.
Moreover, a depth estimation module in the front-end is designed to extract
accurate priori depth values to supervise mapping and tracking processes. By
introducing a robust depth loss term into the tracking process, our SLAM system
achieves more precise pose estimation in large-scale scenes. Our experiments on
two standard datasets show that MoD-SLAM achieves competitive performance,
improving the accuracy of the 3D reconstruction and localization by up to 30%
and 15% respectively compared with existing state-of-the-art monocular SLAM
systems.
- Abstract(参考訳): 単分子SLAMは、シンプルなRGB入力と複雑なセンサー制約の解除により、多くの注目を集めている。
しかし、既存の単分子SLAMシステムは境界シーン用に設計されており、SLAMシステムの適用性を制限している。
この制限に対処するために,非有界シーンでリアルタイムに3次元再構成を可能にする最初の単眼型nerfベースの密集マッピング手法であるmod-slamを提案する。
具体的には,境界のないシーンをマッピングする課題を解決するために,ガウス型無境界シーン表現手法を導入する。
この戦略はSLAMアプリケーションを拡張するために不可欠です。
さらに、フロントエンドの深さ推定モジュールは、正確な事前深度値を抽出してマッピングと追跡プロセスを監督するように設計されている。
追跡処理にロバストな深度損失項を導入することにより,大規模シーンにおけるより正確なポーズ推定を実現する。
2つの標準データセットを用いた実験により,mod-slamは,既存のモノクロスラムシステムと比較して,最大30%,15%の精度向上と3次元再構成の精度向上を実現した。
関連論文リスト
- IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Q-SLAM: Quadric Representations for Monocular SLAM [85.82697759049388]
四角形のレンズを通して体積表現を再現する。
我々は、RGB入力からノイズの深い深さ推定を正すために二次仮定を用いる。
本研究では,新たな二次分割変換器を導入し,二次情報を集約する。
論文 参考訳(メタデータ) (2024-03-12T23:27:30Z) - Gaussian Splatting SLAM [16.3858380078553]
単分子SLAMにおける3次元ガウス散乱の最初の応用について述べる。
我々の方法は3fpsで動作し、正確な追跡、マッピング、高品質なレンダリングに必要な表現を統一する。
ライブカメラから高忠実度で連続的に3Dシーンを再構築するためには、いくつかの革新が必要である。
論文 参考訳(メタデータ) (2023-12-11T18:19:04Z) - SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM [48.190398577764284]
SplaTAMは、単一のRGB-Dカメラからの高忠実度再構成を可能にするアプローチである。
基礎となるガウス表現に合わせて、単純なオンライントラッキングとマッピングシステムを採用している。
実験により,SplaTAMはカメラポーズ推定,マップ構築,既存手法に対する新規ビュー合成において最大2倍の性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-12-04T18:53:24Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - DSP-SLAM: Object Oriented SLAM with Deep Shape Priors [16.867669408751507]
対象物に対する高密度3次元モデルのリッチで正確な関節マップを構築するオブジェクト指向SLAMシステムを提案する。
DSP-SLAMは特徴ベースのSLAMシステムによって再構築された3Dポイントクラウドを入力として取り込む。
本評価では,近年の深層構造復元法に対して,物体の姿勢と形状の復元が改善したことを示す。
論文 参考訳(メタデータ) (2021-08-21T10:00:12Z) - Improved Real-Time Monocular SLAM Using Semantic Segmentation on
Selective Frames [15.455647477995312]
先進的運転支援システムと自律運転システムでは単眼同時位置決めマッピング(slam)が登場している。
本稿では,深層学習に基づくセマンティックセグメンテーションを用いたリアルタイム一眼SLAMの改良を提案する。
6本の映像列を用いた実験により,提案方式により精度の高い軌道追尾精度が得られた。
論文 参考訳(メタデータ) (2021-04-30T22:34:45Z) - Pseudo RGB-D for Self-Improving Monocular SLAM and Depth Prediction [72.30870535815258]
モノクロ深度予測のためのCNNは、周囲の環境の3Dマップを構築するための2つの大きく不連続なアプローチを表している。
本稿では,CNN予測深度を利用してRGB-D特徴量に基づくSLAMを行う,狭義の広義の自己改善フレームワークを提案する。
一方、より原理化された幾何学的SLAMの3次元シーン構造とカメラポーズは、新しい広義のベースライン損失により奥行きネットワークに注入される。
論文 参考訳(メタデータ) (2020-04-22T16:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。