論文の概要: PLGSLAM: Progressive Neural Scene Represenation with Local to Global
Bundle Adjustment
- arxiv url: http://arxiv.org/abs/2312.09866v1
- Date: Fri, 15 Dec 2023 15:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:17:42.996811
- Title: PLGSLAM: Progressive Neural Scene Represenation with Local to Global
Bundle Adjustment
- Title(参考訳): PLGSLAM:局所的からグローバル的バンドル調整による進行性ニューラルシーンの再現
- Authors: Tianchen Deng, Guole Shen, Tong Qin, Jianyu Wang, Wentao Zhao,
Jingchuan Wang, Danwei Wang, Weidong Chen
- Abstract要約: 本研究では,高忠実度表面再構成とロバストなカメラトラッキングをリアルタイムで行うニューラルビジュアルSLAMシステムであるPLGSLAMを提案する。
大規模屋内シーンを扱うため, PLGSLAM では, ローカルシーン表現を動的に割り当てるプログレッシブシーン表現法を提案する。
また,低周波特性,スムーズ性,シーンコンプリートに多層パーセプトロン(MLP)ネットワークを組み込んだ。
- 参考スコア(独自算出の注目度): 25.09245441682527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural implicit scene representations have recently shown encouraging results
in dense visual SLAM. However, existing methods produce low-quality scene
reconstruction and low-accuracy localization performance when scaling up to
large indoor scenes and long sequences. These limitations are mainly due to
their single, global radiance field with finite capacity, which does not adapt
to large scenarios. Their end-to-end pose networks are also not robust enough
with the growth of cumulative errors in large scenes. To this end, we present
PLGSLAM, a neural visual SLAM system which performs high-fidelity surface
reconstruction and robust camera tracking in real time. To handle large-scale
indoor scenes, PLGSLAM proposes a progressive scene representation method which
dynamically allocates new local scene representation trained with frames within
a local sliding window. This allows us to scale up to larger indoor scenes and
improves robustness (even under pose drifts). In local scene representation,
PLGSLAM utilizes tri-planes for local high-frequency features. We also
incorporate multi-layer perceptron (MLP) networks for the low-frequency
feature, smoothness, and scene completion in unobserved areas. Moreover, we
propose local-to-global bundle adjustment method with a global keyframe
database to address the increased pose drifts on long sequences. Experimental
results demonstrate that PLGSLAM achieves state-of-the-art scene reconstruction
results and tracking performance across various datasets and scenarios (both in
small and large-scale indoor environments). The code will be open-sourced upon
paper acceptance.
- Abstract(参考訳): ニューラル暗黙のシーン表現は、近年、濃密な視覚SLAMの結果を奨励している。
しかし、既存の手法では、屋内の大きなシーンや長いシーケンスにスケールアップする際に、低品質なシーン再構築と低精度なローカライゼーション性能を実現している。
これらの制限は、主に有限容量を持つ単一の大域的放射場が大きなシナリオに適応しないためである。
エンドツーエンドのポーズネットワークも、大きなシーンで累積エラーが増加するほど堅牢ではない。
そこで本研究では,高忠実度表面再構成とロバストなカメラトラッキングをリアルタイムで行うニューラルビジュアルSLAMシステムであるPLGSLAMを提案する。
大規模屋内シーンを扱うため, PLGSLAM では, ローカルスライドウィンドウ内のフレームで訓練した新たなローカルシーン表現を動的に割り当てるプログレッシブシーン表現法を提案する。
これにより、より大きな屋内シーンにスケールアップでき、(ポーズドリフトの下でも)ロバスト性が向上します。
局所的なシーン表現において、PLGSLAMは局所的な高周波特性に三面体を用いる。
また,低周波特性,スムース性,未観測領域でのシーン補完のためのマルチレイヤ・パーセプトロン(mlp)ネットワークも導入した。
さらに,長列のポーズドリフトの増加に対応するため,グローバルキーフレームデータベースを用いた局所-グローバルバンドル調整手法を提案する。
実験の結果、plgslamは最先端のシーン復元結果を達成し、様々なデータセットやシナリオ(小規模と大規模の屋内環境の両方)でパフォーマンスを追跡できることが示されている。
コードは、紙が受け入れられるとオープンソースになる。
関連論文リスト
- Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - MUTE-SLAM: Real-Time Neural SLAM with Multiple Tri-Plane Hash Representations [6.266208986510979]
MUTE-SLAMは、効率的なシーン表現のために複数の三平面ハッシュエンコーディングを使用するリアルタイムニューラルネットワークRGB-D SLAMシステムである。
MUTE-SLAMは、カメラの位置を効果的に追跡し、小型および大型の屋内環境のためのスケーラブルなマルチマップ表現を漸進的に構築する。
論文 参考訳(メタデータ) (2024-03-26T14:53:24Z) - Global-guided Focal Neural Radiance Field for Large-scale Scene Rendering [12.272724419136575]
大規模シーンの高忠実なレンダリングを実現するグローバル誘導焦点型ニューラルレイディアンス場(GF-NeRF)を提案する。
提案手法は,多種多様な大規模データセットに対して,高忠実で自然なレンダリング結果を実現する。
論文 参考訳(メタデータ) (2024-03-19T15:45:54Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - Grid-guided Neural Radiance Fields for Large Urban Scenes [146.06368329445857]
近年のアプローチでは、シーンを地理的に分割し、複数のサブNeRFを採用して各領域を個別にモデル化する手法が提案されている。
もう一つの解決策は、計算効率が良く、大きなシーンに自然にスケールできる機能グリッド表現を使用することである。
本稿では,大規模都市における高忠実度レンダリングを実現し,計算効率を向上する枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-24T13:56:45Z) - NEWTON: Neural View-Centric Mapping for On-the-Fly Large-Scale SLAM [51.21564182169607]
Newtonは、リアルタイム観測に基づいて動的にニューラルネットワークを構築するビュー中心のマッピング手法である。
本手法は,複数のニューラルネットワークを用いてシーンを表現することで,ループクロージャとシーン境界更新を用いたカメラポーズ更新を可能にする。
実験の結果,既存の世界中心型ニューラルネットワークSLAMシステムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-23T20:22:01Z) - PLD-SLAM: A Real-Time Visual SLAM Using Points and Line Segments in
Dynamic Scenes [0.0]
本稿では,点と線の特徴を組み合わせたリアルタイムステレオ間接視覚SLAMシステム PLD-SLAMを提案する。
また,適切な選択と効率的なループ閉鎖検出を実現するため,グローバルグレー類似度(GGS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-22T07:40:00Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。