論文の概要: Point-SLAM: Dense Neural Point Cloud-based SLAM
- arxiv url: http://arxiv.org/abs/2304.04278v3
- Date: Tue, 12 Sep 2023 16:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 17:20:24.884067
- Title: Point-SLAM: Dense Neural Point Cloud-based SLAM
- Title(参考訳): point-slam:密集したニューラルポイントクラウドベースのslam
- Authors: Erik Sandstr\"om and Yue Li and Luc Van Gool and Martin R. Oswald
- Abstract要約: 本稿では,モノクラーRGBD入力に対する高密度ニューラルネットワークの局所化とマッピング(SLAM)手法を提案する。
トラッキングとマッピングの両方が、同じポイントベースのニューラルシーン表現で実行可能であることを実証する。
- 参考スコア(独自算出の注目度): 61.96492935210654
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a dense neural simultaneous localization and mapping (SLAM)
approach for monocular RGBD input which anchors the features of a neural scene
representation in a point cloud that is iteratively generated in an
input-dependent data-driven manner. We demonstrate that both tracking and
mapping can be performed with the same point-based neural scene representation
by minimizing an RGBD-based re-rendering loss. In contrast to recent dense
neural SLAM methods which anchor the scene features in a sparse grid, our
point-based approach allows dynamically adapting the anchor point density to
the information density of the input. This strategy reduces runtime and memory
usage in regions with fewer details and dedicates higher point density to
resolve fine details. Our approach performs either better or competitive to
existing dense neural RGBD SLAM methods in tracking, mapping and rendering
accuracy on the Replica, TUM-RGBD and ScanNet datasets. The source code is
available at https://github.com/eriksandstroem/Point-SLAM.
- Abstract(参考訳): 本稿では,入力に依存したデータ駆動方式で反復生成される点クラウドにおいて,神経シーン表現の特徴をアンカーする単眼型rgbd入力のための高密度ニューラルネットワーク同時局在マッピング(slam)手法を提案する。
rgbdベースの再レンダリングロスを最小化することで、トラッキングとマッピングの両方を同じポイントベースのニューラルネットワークシーン表現で実行できることを実証する。
スパースグリッドのシーン特徴を固定する近年の高密度ニューラルネットワークSLAM法とは対照的に,我々のポイントベースアプローチは,アンカー点密度を入力の情報密度に動的に適応させることができる。
この戦略は、ディテールの少ないリージョンでのランタイムとメモリ使用量を削減し、詳細を解決するために高いポイント密度を捧げる。
我々の手法は、Replica、TUM-RGBD、ScanNetデータセット上での追跡、マッピング、レンダリングの精度において、既存の高密度ニューラルネットワークRGBD SLAM法により良い、あるいは競合する。
ソースコードはhttps://github.com/eriksandstroem/point-slamで入手できる。
関連論文リスト
- NIS-SLAM: Neural Implicit Semantic RGB-D SLAM for 3D Consistent Scene Understanding [31.56016043635702]
NIS-SLAMは,高効率な暗黙的意味論的RGB-D SLAMシステムである。
高忠実な表面再構成と空間的一貫したシーン理解のために、我々は高周波多分解能テトラヘドロンに基づく特徴を組み合わせた。
また、我々のアプローチが拡張現実のアプリケーションに応用可能であることも示している。
論文 参考訳(メタデータ) (2024-07-30T14:27:59Z) - GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - NICE-SLAM: Neural Implicit Scalable Encoding for SLAM [112.6093688226293]
NICE-SLAMは階層的なシーン表現を導入することでマルチレベルローカル情報を組み込んだ高密度SLAMシステムである。
最近の暗黙的SLAMシステムと比較して、私たちのアプローチはよりスケーラブルで効率的で堅牢です。
論文 参考訳(メタデータ) (2021-12-22T18:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。