論文の概要: OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems
- arxiv url: http://arxiv.org/abs/2003.08056v1
- Date: Wed, 18 Mar 2020 05:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:09:15.618493
- Title: OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems
- Title(参考訳): OmniSLAM:ワイドベースラインマルチカメラシステムにおける全方向のローカライゼーションとディエンスマッピング
- Authors: Changhee Won, Hochang Seok, Zhaopeng Cui, Marc Pollefeys, Jongwoo Lim
- Abstract要約: 超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
- 参考スコア(独自算出の注目度): 88.41004332322788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an omnidirectional localization and dense mapping
system for a wide-baseline multiview stereo setup with ultra-wide field-of-view
(FOV) fisheye cameras, which has a 360 degrees coverage of stereo observations
of the environment. For more practical and accurate reconstruction, we first
introduce improved and light-weighted deep neural networks for the
omnidirectional depth estimation, which are faster and more accurate than the
existing networks. Second, we integrate our omnidirectional depth estimates
into the visual odometry (VO) and add a loop closing module for global
consistency. Using the estimated depth map, we reproject keypoints onto each
other view, which leads to a better and more efficient feature matching
process. Finally, we fuse the omnidirectional depth maps and the estimated rig
poses into the truncated signed distance function (TSDF) volume to acquire a 3D
map. We evaluate our method on synthetic datasets with ground-truth and
real-world sequences of challenging environments, and the extensive experiments
show that the proposed system generates excellent reconstruction results in
both synthetic and real-world environments.
- Abstract(参考訳): 本稿では,超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ装置における全方位位置推定と高密度マッピングシステムについて述べる。
より実用的で正確な再構築のために、我々はまず、既存のネットワークよりも高速かつ高精度な全方位深度推定のために、改良された軽量深層ニューラルネットワークを導入する。
第2に,全方位深度推定を視覚オドメトリ(vo)に統合し,グローバル一貫性のためのループクローズモジュールを追加した。
推定深度マップを用いて、お互いのビューにキーポイントを再計画し、より良く、より効率的な特徴マッチングプロセスをもたらす。
最後に,全方位深度マップを融合し,推定したリグをTSDF(truncated signed distance function)ボリュームにポーズさせて3Dマップを得る。
提案手法は,実環境と実環境の両方において優れた復元結果が得られることを示すとともに,実環境と合成環境の両方において,本手法が優れた復元結果を生成することを示す。
関連論文リスト
- ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - SimpleMapping: Real-Time Visual-Inertial Dense Mapping with Deep
Multi-View Stereo [13.535871843518953]
モノクロ画像とIMU読解のみを用いた高画質のリアルタイムビジュアル慣性高密度マッピング法を提案する。
そこで本稿では,VIOシステムから得られる情報的だがノイズの多いスパースポイントを効果的に活用できるスパースポイント支援ステレオニューラルネットワーク(SPA-MVSNet)を提案する。
提案手法は,EuRoCデータセットの難易度評価において,既存システムよりも39.7%のFスコア向上を実現している。
論文 参考訳(メタデータ) (2023-06-14T17:28:45Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Multi-View Guided Multi-View Stereo [39.116228971420874]
本稿では,複数の画像フレームから高密度な3次元再構成を実現するための新しいフレームワークを提案する。
ディープ・マルチビューステレオネットワークを前提として,ニューラルネットワークのガイドにはスパース奥行きヒントが使用される。
我々は、最先端の多視点ステレオネットワークにおけるマルチビューガイドフレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-10-20T17:59:18Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。