論文の概要: A Hybrid Sparse-Dense Monocular SLAM System for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2108.07736v1
- Date: Tue, 17 Aug 2021 16:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:15:51.688908
- Title: A Hybrid Sparse-Dense Monocular SLAM System for Autonomous Driving
- Title(参考訳): 自律運転用ハイブリッドスパース距離単分子SLAMシステム
- Authors: Louis Gallagher, Varun Ravi Kumar, Senthil Yogamani and John B.
McDonald
- Abstract要約: 本研究では,移動車に装着した単眼カメラを用いて,屋外環境の幾何学的形状の高密度な3次元モデルを再構成する。
本システムでは,最先端のスパース特徴と高密度融合型視覚SLAMアルゴリズムを組み合わせたハイブリッドマッピングアーキテクチャを用いて深度予測を行う。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a system for incrementally reconstructing a dense
3D model of the geometry of an outdoor environment using a single monocular
camera attached to a moving vehicle. Dense models provide a rich representation
of the environment facilitating higher-level scene understanding, perception,
and planning. Our system employs dense depth prediction with a hybrid mapping
architecture combining state-of-the-art sparse features and dense fusion-based
visual SLAM algorithms within an integrated framework. Our novel contributions
include design of hybrid sparse-dense camera tracking and loop closure, and
scale estimation improvements in dense depth prediction. We use the motion
estimates from the sparse method to overcome the large and variable inter-frame
displacement typical of outdoor vehicle scenarios. Our system then registers
the live image with the dense model using whole-image alignment. This enables
the fusion of the live frame and dense depth prediction into the model. Global
consistency and alignment between the sparse and dense models are achieved by
applying pose constraints from the sparse method directly within the
deformation of the dense model. We provide qualitative and quantitative results
for both trajectory estimation and surface reconstruction accuracy,
demonstrating competitive performance on the KITTI dataset. Qualitative results
of the proposed approach are illustrated in https://youtu.be/Pn2uaVqjskY.
Source code for the project is publicly available at the following repository
https://github.com/robotvisionmu/DenseMonoSLAM.
- Abstract(参考訳): 本稿では,移動車に装着した単眼カメラを用いて,屋外環境の形状の高密度な3次元モデルを漸進的に再構築するシステムを提案する。
センスモデルは、より高度なシーン理解、認識、計画を容易にする環境の豊かな表現を提供する。
本システムでは,最先端のスパース特徴と高密度融合型視覚SLAMアルゴリズムを組み合わせたハイブリッドマッピングアーキテクチャを用いて深度予測を行う。
我々の新しい貢献には、ハイブリッドスパース距離カメラトラッキングとループ閉鎖の設計、深度予測におけるスケール推定の改善が含まれる。
本研究では,sparse法による運動推定を用いて,屋外車両シナリオに典型的な大型および可変フレーム間変位を克服する。
そして,全画像アライメントを用いてライブ画像を高密度モデルに登録する。
これにより、ライブフレームの融合とモデルへの深度予測が可能になる。
疎度モデルの変形に直接スパース法からのポーズ制約を適用することにより、疎度モデルと密度モデルの大域的整合性と整合性を実現する。
我々は,KITTIデータセット上での競合性能を実証し,軌道推定と表面再構成の精度の両面で定性的かつ定量的に評価した。
提案手法の質的な結果が https://youtu.be/pn2uavqjsky に示されている。
プロジェクトのソースコードは、以下のリポジトリ https://github.com/robotvisionmu/DenseMonoSLAM.comで公開されている。
関連論文リスト
- Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - MV-DeepSDF: Implicit Modeling with Multi-Sweep Point Clouds for 3D
Vehicle Reconstruction in Autonomous Driving [25.088617195439344]
我々は,マルチスウィープ点雲からの最適符号距離関数(SDF)形状表現を推定するMV-DeepSDFと呼ばれる新しいフレームワークを提案する。
2つの実世界の自律走行データセットについて徹底的な実験を行う。
論文 参考訳(メタデータ) (2023-08-21T15:48:15Z) - Hierarchical Latent Structure for Multi-Modal Vehicle Trajectory
Forecasting [0.0]
VAEに基づく軌道予測モデルに階層的潜在構造を導入する。
本モデルでは,複数モーダルな軌道分布を明瞭に生成し,予測精度で最先端(SOTA)モデルより優れる。
論文 参考訳(メタデータ) (2022-07-11T04:52:28Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - A Compact Deep Architecture for Real-time Saliency Prediction [42.58396452892243]
唾液度モデルは、人間の視覚系における注意機構を模倣することを目的としている。
ディープモデルは多数のパラメータを持ち、リアルタイムアプリケーションには適さない。
本稿では,実時間精度予測のためのコンパクトかつ高速なモデルを提案する。
論文 参考訳(メタデータ) (2020-08-30T17:47:16Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Variational State-Space Models for Localisation and Dense 3D Mapping in
6 DoF [17.698319441265223]
深部状態空間モデルにおける近似ベイズ推定として,空間環境における6-DoFの局所化と3次元密度再構成の問題を解く。
この結果、現在の最先端のビジュアルSLAMソリューションに欠ける、世界の表現力のある予測モデルが生まれる。
我々は、最先端のビジュアル・慣性オドメトリーシステムの性能に近づいた、現実的な無人航空機の飛行データに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-06-17T22:06:35Z) - 6D Camera Relocalization in Ambiguous Scenes via Continuous Multimodal
Inference [67.70859730448473]
あいまいさと不確かさを捉えるマルチモーダルカメラ再ローカライズフレームワークを提案する。
我々は、複数のカメラのポーズ仮説を予測し、それぞれの予測の不確実性も予測する。
あいまいな環境下でのカメラローカライゼーション研究を促進するための新しいデータセットを提案する。
論文 参考訳(メタデータ) (2020-04-09T20:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。