論文の概要: VOLDOR-SLAM: For the Times When Feature-Based or Direct Methods Are Not
Good Enough
- arxiv url: http://arxiv.org/abs/2104.06800v1
- Date: Wed, 14 Apr 2021 12:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 18:32:56.720174
- Title: VOLDOR-SLAM: For the Times When Feature-Based or Direct Methods Are Not
Good Enough
- Title(参考訳): VOLDOR-SLAM: 機能ベースのメソッドや直接メソッドが十分ではない時間について
- Authors: Zhixiang Min, Enrique Dunn
- Abstract要約: 本稿では,外部高密度光フローを入力とする密接SLAMシステムを提案する。
近年の高密度光学フロー手法の進歩を活かし、正確で堅牢なカメラポーズ推定を実現します。
当社のオープンソース実装は,単一のGTX1080Ti GPU上で約15FPSで稼働しています。
- 参考スコア(独自算出の注目度): 11.091975655053547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dense-indirect SLAM system using external dense optical flows as
input. We extend the recent probabilistic visual odometry model VOLDOR [Min et
al. CVPR'20], by incorporating the use of geometric priors to 1) robustly
bootstrap estimation from monocular capture, while 2) seamlessly supporting
stereo and/or RGB-D input imagery. Our customized back-end tightly couples our
intermediate geometric estimates with an adaptive priority scheme managing the
connectivity of an incremental pose graph. We leverage recent advances in dense
optical flow methods to achieve accurate and robust camera pose estimates,
while constructing fine-grain globally-consistent dense environmental maps. Our
open source implementation [https://github.com/htkseason/VOLDOR] operates
online at around 15 FPS on a single GTX1080Ti GPU.
- Abstract(参考訳): 本稿では,外部高密度光流を用いた高密度間接SLAMシステムを提案する。
我々は,最近の確率論的視覚計測モデルVOLDOR [Min et al]を拡張した。
CVPR'20] は,1) 単分子捕獲からのブートストラップ推定を頑健に行い,2) ステレオおよび/またはRGB-D入力画像のシームレスなサポートを行う。
我々のカスタマイズしたバックエンドは、中間幾何推定を漸進的なポーズグラフの接続性を管理する適応優先スキームと密に結合する。
我々は, 高密度光フロー手法の最近の進歩を利用して, 高精度でロバストなカメラポーズ推定を実現するとともに, グローバルに一貫性のある高密度環境マップを構築した。
我々のオープンソース実装(https://github.com/htkseason/VOLDOR)は、1つのGTX1080Ti GPU上で約15FPSで動作する。
関連論文リスト
- Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - HI-SLAM: Monocular Real-time Dense Mapping with Hybrid Implicit Fields [11.627951040865568]
最近のニューラルマッピングフレームワークは有望な結果を示しているが、RGB-Dやポーズ入力に依存している。
我々のアプローチは、高密度SLAMとニューラル暗黙の場を統合する。
ニューラルネットワークの効率的な構築には,マルチレゾリューショングリッド符号化と符号付き距離関数を用いる。
論文 参考訳(メタデータ) (2023-10-07T12:26:56Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - A Hybrid Sparse-Dense Monocular SLAM System for Autonomous Driving [0.5735035463793008]
本研究では,移動車に装着した単眼カメラを用いて,屋外環境の幾何学的形状の高密度な3次元モデルを再構成する。
本システムでは,最先端のスパース特徴と高密度融合型視覚SLAMアルゴリズムを組み合わせたハイブリッドマッピングアーキテクチャを用いて深度予測を行う。
論文 参考訳(メタデータ) (2021-08-17T16:13:01Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - DeepRelativeFusion: Dense Monocular SLAM using Single-Image Relative
Depth Prediction [4.9188958016378495]
本稿では,一様一貫した3次元構造を復元できる,ディープフュージョンと呼ばれる高密度単分子SLAMシステムを提案する。
視覚的SLAMを用いて、カメラのポーズと奥行きの半深度マップを確実に復元し、それから相対深度予測を用いて半深度マップを密度化し、ポーズグラフを精査する。
我々のシステムは、最先端の高密度SLAMシステムよりも、大規模なマージンによる高密度再構成精度で定量的に性能を向上する。
論文 参考訳(メタデータ) (2020-06-07T05:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。