論文の概要: DeepRelativeFusion: Dense Monocular SLAM using Single-Image Relative
Depth Prediction
- arxiv url: http://arxiv.org/abs/2006.04047v3
- Date: Fri, 9 Jul 2021 20:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:32:03.815051
- Title: DeepRelativeFusion: Dense Monocular SLAM using Single-Image Relative
Depth Prediction
- Title(参考訳): Deep RelativeFusion:シングルイメージ相対深度予測を用いた高密度単分子SLAM
- Authors: Shing Yan Loo, Syamsiah Mashohor, Sai Hong Tang, Hong Zhang
- Abstract要約: 本稿では,一様一貫した3次元構造を復元できる,ディープフュージョンと呼ばれる高密度単分子SLAMシステムを提案する。
視覚的SLAMを用いて、カメラのポーズと奥行きの半深度マップを確実に復元し、それから相対深度予測を用いて半深度マップを密度化し、ポーズグラフを精査する。
我々のシステムは、最先端の高密度SLAMシステムよりも、大規模なマージンによる高密度再構成精度で定量的に性能を向上する。
- 参考スコア(独自算出の注目度): 4.9188958016378495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a dense monocular SLAM system, named
DeepRelativeFusion, that is capable to recover a globally consistent 3D
structure. To this end, we use a visual SLAM algorithm to reliably recover the
camera poses and semi-dense depth maps of the keyframes, and then use relative
depth prediction to densify the semi-dense depth maps and refine the keyframe
pose-graph. To improve the semi-dense depth maps, we propose an adaptive
filtering scheme, which is a structure-preserving weighted average smoothing
filter that takes into account the pixel intensity and depth of the
neighbouring pixels, yielding substantial reconstruction accuracy gain in
densification. To perform densification, we introduce two incremental
improvements upon the energy minimization framework proposed by DeepFusion: (1)
an improved cost function, and (2) the use of single-image relative depth
prediction. After densification, we update the keyframes with two-view
consistent optimized semi-dense and dense depth maps to improve pose-graph
optimization, providing a feedback loop to refine the keyframe poses for
accurate scene reconstruction. Our system outperforms the state-of-the-art
dense SLAM systems quantitatively in dense reconstruction accuracy by a large
margin.
- Abstract(参考訳): 本稿では,大域的に一貫した3次元構造を復元できる,DeepRelativeFusionと呼ばれる高密度単分子SLAMシステムを提案する。
この目的のために,視覚的なslamアルゴリズムを用いて,キーフレームのカメラポーズとセミセンス深度マップを確実に復元し,相対深度予測を用いてセミセンス深度マップを高密度化し,キーフレームポーズグラフを洗練する。
半密度深度マップを改善するため, 隣接する画素の画素強度と深度を考慮した構造保存型平均平滑化フィルタである適応フィルタ方式を提案する。
高密度化を実現するために,deepfusionが提案するエネルギー最小化フレームワークについて,(1)コスト関数の改善,(2)単像相対深度予測の2つの段階的な改善を提案する。
密度化後、キーフレームを2ビュー一貫した半深度と深度マップで更新し、ポーズグラフの最適化を改善し、正確なシーン再構成のためにキーフレームのポーズを洗練するためのフィードバックループを提供する。
我々のシステムは最先端の高密度SLAMシステムよりも高い精度で高精度に再現できる。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - DeepMLE: A Robust Deep Maximum Likelihood Estimator for Two-view
Structure from Motion [9.294501649791016]
動きからの2次元構造(SfM)は3次元再構成と視覚SLAM(vSLAM)の基礎となる。
本稿では,2視点SfM問題を最大最大推定(MLE)として定式化し,DeepMLEと表記されるフレームワークを用いて解いた。
提案手法は,最先端の2ビューSfM手法よりも精度と一般化能力において優れる。
論文 参考訳(メタデータ) (2022-10-11T15:07:25Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - DSP-SLAM: Object Oriented SLAM with Deep Shape Priors [16.867669408751507]
対象物に対する高密度3次元モデルのリッチで正確な関節マップを構築するオブジェクト指向SLAMシステムを提案する。
DSP-SLAMは特徴ベースのSLAMシステムによって再構築された3Dポイントクラウドを入力として取り込む。
本評価では,近年の深層構造復元法に対して,物体の姿勢と形状の復元が改善したことを示す。
論文 参考訳(メタデータ) (2021-08-21T10:00:12Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。