論文の概要: Probabilistic Volumetric Fusion for Dense Monocular SLAM
- arxiv url: http://arxiv.org/abs/2210.01276v1
- Date: Mon, 3 Oct 2022 23:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:26:12.118078
- Title: Probabilistic Volumetric Fusion for Dense Monocular SLAM
- Title(参考訳): 密度単分子SLAMの確率的体積融合
- Authors: Antoni Rosinol, John J. Leonard, Luca Carlone
- Abstract要約: 本研究では,高密度単分子SLAMと高速不確実性伝搬を利用して3次元シーンを再構成する手法を提案する。
提案手法は, 極めてノイズの多い深度推定値に対して頑健でありながら, 密集度, 精度, リアルタイムにシーンを3次元再構成することができる。
その結果,本手法は単分子SLAMからの直接拡散深度よりも92%精度が向上し,最大90%の精度向上が得られた。
- 参考スコア(独自算出の注目度): 33.156523309257786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel method to reconstruct 3D scenes from images by leveraging
deep dense monocular SLAM and fast uncertainty propagation. The proposed
approach is able to 3D reconstruct scenes densely, accurately, and in real-time
while being robust to extremely noisy depth estimates coming from dense
monocular SLAM. Differently from previous approaches, that either use ad-hoc
depth filters, or that estimate the depth uncertainty from RGB-D cameras'
sensor models, our probabilistic depth uncertainty derives directly from the
information matrix of the underlying bundle adjustment problem in SLAM. We show
that the resulting depth uncertainty provides an excellent signal to weight the
depth-maps for volumetric fusion. Without our depth uncertainty, the resulting
mesh is noisy and with artifacts, while our approach generates an accurate 3D
mesh with significantly fewer artifacts. We provide results on the challenging
Euroc dataset, and show that our approach achieves 92% better accuracy than
directly fusing depths from monocular SLAM, and up to 90% improvements compared
to the best competing approach.
- Abstract(参考訳): 本研究では,高密度単分子SLAMと高速不確実性伝搬を利用して画像から3次元シーンを再構成する手法を提案する。
提案手法は,高密度の単分子SLAMから発生する非常にノイズの多い深度推定に頑健でありながら,高密度,高精度,リアルタイムにシーンを3次元再構成することができる。
アドホック深度フィルタやRGB-Dカメラのセンサモデルから深度不確かさを推定する従来の手法と異なり、確率的深度不確かさはSLAMの基盤となるバンドル調整問題の情報行列から直接導かれる。
得られた深度不確実性は,体積融合の深度マップの重み付けに優れた信号を与えることを示す。
我々の深さの不確実性がなければ、結果のメッシュは騒々しく、アーティファクトとともに、我々のアプローチは、はるかに少ないアーティファクトを持つ正確な3Dメッシュを生成する。
課題であるEurocデータセットの結果から,本手法はモノクロSLAMの深度を直接拡散するよりも92%精度が向上し,最も競合するアプローチと比較して最大90%の精度が向上したことを示す。
関連論文リスト
- Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - Non-learning Stereo-aided Depth Completion under Mis-projection via
Selective Stereo Matching [0.5067618621449753]
一対のステレオ画像で導かれる光検出・測度センサ(LiDAR)を用いて捉えたスパース深度マップの非学習深度補完法を提案する。
提案手法は, 平均絶対誤差(MAE)を0.65倍に減らし, 従来よりも約2倍の精度で推定できることを示した。
論文 参考訳(メタデータ) (2022-10-04T07:46:56Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - Scale-aware direct monocular odometry [4.111899441919165]
本稿では,深部ニューラルネットワークからの深度予測に基づく直接単分子オードメトリーの枠組みを提案する。
提案手法は,従来の単分子SLAMよりも5倍から9倍精度が高く,ステレオシステムに近い精度である。
論文 参考訳(メタデータ) (2021-09-21T10:30:15Z) - Boosting Monocular Depth Estimation with Lightweight 3D Point Fusion [46.97673710849343]
従来の多視点ステレオやSLAMを用いて単眼深度推定を行う際の問題に対処する。
我々は従来のパイプラインを用いて、単眼深度推定ネットワークに供給されるスパース3D点雲を生成し、その性能を向上させる。
モバイルデバイス上に内蔵されたSLAMシステムと統合することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-12-18T15:19:46Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。