論文の概要: UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM
- arxiv url: http://arxiv.org/abs/2306.11048v1
- Date: Mon, 19 Jun 2023 16:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:00:23.724952
- Title: UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM
- Title(参考訳): UncLe-SLAM:Dense Neural SLAMのための不確実性学習
- Authors: Erik Sandstr\"om, Kevin Ta, Luc Van Gool, Martin R. Oswald
- Abstract要約: 我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
- 参考スコア(独自算出の注目度): 73.70427059700656
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present an uncertainty learning framework for dense neural simultaneous
localization and mapping (SLAM). Estimating pixel-wise uncertainties for the
depth input of dense SLAM methods allows to re-weigh the tracking and mapping
losses towards image regions that contain more suitable information that is
more reliable for SLAM. To this end, we propose an online framework for sensor
uncertainty estimation that can be trained in a self-supervised manner from
only 2D input data. We further discuss the advantages of the uncertainty
learning for the case of multi-sensor input. Extensive analysis,
experimentation, and ablations show that our proposed modeling paradigm
improves both mapping and tracking accuracy and often performs better than
alternatives that require ground truth depth or 3D. Our experiments show that
we achieve a 38% and 27% lower absolute trajectory tracking error (ATE) on the
7-Scenes and TUM-RGBD datasets respectively. On the popular Replica dataset on
two types of depth sensors we report an 11% F1-score improvement on RGBD SLAM
compared to the recent state-of-the-art neural implicit approaches. Our source
code will be made available.
- Abstract(参考訳): 本稿では,slam(deep neural concurrent localization and mapping)のための不確実性学習フレームワークを提案する。
高密度SLAM法の深度入力に対する画素ワイド不確実性を推定することにより、SLAMに信頼性の高いより適切な情報を含む画像領域に対する追跡とマッピング損失を再検討することができる。
そこで本研究では,2次元入力データのみから自己教師ありで学習可能なセンサ不確かさ推定のためのオンラインフレームワークを提案する。
さらに,マルチセンサ入力における不確実性学習の利点についても論じる。
大規模な解析,実験,改善により,提案手法はマッピングと追跡の精度を向上し,地上の真理深度や3Dを必要とする代替手段よりも優れた性能を示すことが示されている。
実験の結果,TUM-RGBDデータセットでは,絶対軌道追跡誤差が38%,絶対軌道追跡誤差が27%低かった。
2種類の深度センサー上の一般的なReplicaデータセットでは、最近の最先端のニューラル暗黙のアプローチと比較して、RGBD SLAMの11%のF1スコア改善が報告されている。
ソースコードは利用可能になる予定です。
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - NIS-SLAM: Neural Implicit Semantic RGB-D SLAM for 3D Consistent Scene Understanding [31.56016043635702]
NIS-SLAMは,高効率な暗黙的意味論的RGB-D SLAMシステムである。
高忠実な表面再構成と空間的一貫したシーン理解のために、我々は高周波多分解能テトラヘドロンに基づく特徴を組み合わせた。
また、我々のアプローチが拡張現実のアプリケーションに応用可能であることも示している。
論文 参考訳(メタデータ) (2024-07-30T14:27:59Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Ray Denoising: Depth-aware Hard Negative Sampling for Multi-view 3D
Object Detection [46.041193889845474]
レイデノジング(Ray Denoising)は、カメラ線に沿って戦略的にサンプリングすることで検出精度を高める革新的な手法である。
Ray Denoisingはプラグイン・アンド・プレイモジュールとして設計されており、DETR方式のマルチビュー3D検出器と互換性がある。
NuScenesデータセット上の最先端のStreamPETR法よりも平均精度(mAP)が1.9%向上した。
論文 参考訳(メタデータ) (2024-02-06T02:17:44Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Point-SLAM: Dense Neural Point Cloud-based SLAM [61.96492935210654]
本稿では,モノクラーRGBD入力に対する高密度ニューラルネットワークの局所化とマッピング(SLAM)手法を提案する。
トラッキングとマッピングの両方が、同じポイントベースのニューラルシーン表現で実行可能であることを実証する。
論文 参考訳(メタデータ) (2023-04-09T16:48:26Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。