論文の概要: CodeMapping: Real-Time Dense Mapping for Sparse SLAM using Compact Scene
Representations
- arxiv url: http://arxiv.org/abs/2107.08994v1
- Date: Mon, 19 Jul 2021 16:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:44:14.612219
- Title: CodeMapping: Real-Time Dense Mapping for Sparse SLAM using Compact Scene
Representations
- Title(参考訳): CodeMapping:コンパクトシーン表現を用いたスパースSLAMのためのリアルタイムDense Mapping
- Authors: Hidenobu Matsuki, Raluca Scona, Jan Czarnowski and Andrew J. Davison
- Abstract要約: 最先端の疎視的SLAMシステムは、カメラの軌跡とランドマークの位置を正確に推定する。
これらのスパースマップは、ローカライゼーションに有用であるが、障害物回避やシーン理解といった他のタスクには使用できない。
本稿では、カメラのポーズやスパースポイントを入力として捉えた疎視的SLAMシステムを補完する高密度マッピングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.79223452551813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel dense mapping framework for sparse visual SLAM systems
which leverages a compact scene representation. State-of-the-art sparse visual
SLAM systems provide accurate and reliable estimates of the camera trajectory
and locations of landmarks. While these sparse maps are useful for
localization, they cannot be used for other tasks such as obstacle avoidance or
scene understanding. In this paper we propose a dense mapping framework to
complement sparse visual SLAM systems which takes as input the camera poses,
keyframes and sparse points produced by the SLAM system and predicts a dense
depth image for every keyframe. We build on CodeSLAM and use a variational
autoencoder (VAE) which is conditioned on intensity, sparse depth and
reprojection error images from sparse SLAM to predict an uncertainty-aware
dense depth map. The use of a VAE then enables us to refine the dense depth
images through multi-view optimization which improves the consistency of
overlapping frames. Our mapper runs in a separate thread in parallel to the
SLAM system in a loosely coupled manner. This flexible design allows for
integration with arbitrary metric sparse SLAM systems without delaying the main
SLAM process. Our dense mapper can be used not only for local mapping but also
globally consistent dense 3D reconstruction through TSDF fusion. We demonstrate
our system running with ORB-SLAM3 and show accurate dense depth estimation
which could enable applications such as robotics and augmented reality.
- Abstract(参考訳): 本稿では,コンパクトなシーン表現を活かした,スパースビジュアルスラムシステムのための新しい高密度マッピングフレームワークを提案する。
最先端の疎視的SLAMシステムは、カメラ軌跡とランドマークの位置の正確かつ信頼性の高い推定を提供する。
これらのスパースマップはローカライゼーションに有用であるが、障害物回避やシーン理解といった他のタスクには使用できない。
本稿では,カメラのポーズ,キーフレーム,スパースポイントを入力として,各キーフレームの深度を推定する,疎視的SLAMシステムを補完する高密度マッピングフレームワークを提案する。
我々は,CodeSLAM上に構築し,Sparse SLAMからの強度,スパース深さ,再投影誤差の画像に基づいて,変分オートエンコーダ(VAE)を用いて不確実性を認識した深度マップを推定する。
VAEを用いることで、重なり合うフレームの整合性を改善するマルチビュー最適化により、深度画像の精細化が可能となる。
私たちのmapperは、SLAMシステムと並行して、疎結合で別々のスレッドで動作します。
この柔軟な設計は、メインのSLAMプロセスを遅らせることなく、任意のメトリックスパースSLAMシステムとの統合を可能にする。
高密度マッパーは局所マッピングだけでなく,tsdf融合によるグローバルに一貫した高密度3次元再構成にも利用できる。
我々は,ORB-SLAM3で動作するシステムを実演し,ロボット工学や拡張現実などの応用を可能にする,高精度な深度推定を行う。
関連論文リスト
- IG-SLAM: Instant Gaussian SLAM [6.228980850646457]
3D Gaussian SplattingはSLAMシステムにおける代替シーン表現として期待できる結果を示した。
本稿では,RGBのみの高密度SLAMシステムであるIG-SLAMについて述べる。
我々は、最先端のRGBのみのSLAMシステムと競合する性能を示し、高速な動作速度を実現する。
論文 参考訳(メタデータ) (2024-08-02T09:07:31Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - Depth Completion with Multiple Balanced Bases and Confidence for Dense
Monocular SLAM [34.78726455243436]
本稿では,軽量深度補完網をスパースSLAMシステムに統合する新しい手法を提案する。
具体的には,BBC-Netと呼ばれる,高度に最適化されたマルチバス深度補完ネットワークを提案する。
BBC-Netは、オフザシェルキーポイントベースのSLAMシステムによって生成されたスパースポイントを持つ単眼画像から、複数のバランスの取れたベースと信頼マップを予測できる。
論文 参考訳(メタデータ) (2023-09-08T06:15:27Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - NICER-SLAM: Neural Implicit Scene Encoding for RGB SLAM [111.83168930989503]
NICER-SLAMは、カメラポーズと階層的なニューラル暗黙マップ表現を同時に最適化するRGB SLAMシステムである。
近年のRGB-D SLAMシステムと競合する高密度マッピング,追跡,新しいビュー合成において,高い性能を示す。
論文 参考訳(メタデータ) (2023-02-07T17:06:34Z) - ESLAM: Efficient Dense SLAM System Based on Hybrid Representation of
Signed Distance Fields [2.0625936401496237]
ESLAMは、未知のカメラポーズでRGB-Dフレームを読み出し、シーン表現を漸進的に再構築する。
ESLAMは3次元再構成の精度を向上し、最先端の高密度視覚SLAM法のカメラローカライゼーションを50%以上向上する。
論文 参考訳(メタデータ) (2022-11-21T18:25:14Z) - DeepFusion: Real-Time Dense 3D Reconstruction for Monocular SLAM using
Single-View Depth and Gradient Predictions [22.243043857097582]
DeepFusionは、GPU上でリアルタイムに高密度な再構成を生成することができる。
半密度多視点ステレオアルゴリズムの出力とCNNの深さと予測を確率的に融合する。
合成および実世界のデータセットのパフォーマンスに基づいて、DeepFusionは、少なくとも他の同等のシステムと同様に、実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-07-25T14:55:26Z) - Simultaneous Localisation and Mapping with Quadric Surfaces [19.516688657045613]
二次曲面の最小表現を導入し、これを最小二乗の定式化に組み込む方法を示す。
また、我々の表現が、革命の四次数に見られるような四次数に関する追加の制約を含むように容易に拡張できることを示す。
論文 参考訳(メタデータ) (2022-03-15T16:26:11Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。