論文の概要: Accurate Visual-Inertial SLAM by Feature Re-identification
- arxiv url: http://arxiv.org/abs/2102.13438v1
- Date: Fri, 26 Feb 2021 12:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 19:53:40.818569
- Title: Accurate Visual-Inertial SLAM by Feature Re-identification
- Title(参考訳): 特徴の再同定による正確な視覚-慣性SLAM
- Authors: Xiongfeng Peng, Zhihua Liu, Qiang Wang, Yun-Tae Kim, Myungjae Jeon
- Abstract要約: 空間時空間感度サブグローバルマップから既存の特徴を再同定し,効率的なドリフトレスSLAM法を提案する。
本手法は67.3%,87.5%の絶対翻訳誤差を最小の計算コストで削減する。
- 参考スコア(独自算出の注目度): 4.263022790692934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel feature re-identification method for real-time
visual-inertial SLAM. The front-end module of the state-of-the-art
visual-inertial SLAM methods (e.g. visual feature extraction and matching
schemes) relies on feature tracks across image frames, which are easily broken
in challenging scenarios, resulting in insufficient visual measurement and
accumulated error in pose estimation. In this paper, we propose an efficient
drift-less SLAM method by re-identifying existing features from a
spatial-temporal sensitive sub-global map. The re-identified features over a
long time span serve as augmented visual measurements and are incorporated into
the optimization module which can gradually decrease the accumulative error in
the long run, and further build a drift-less global map in the system.
Extensive experiments show that our feature re-identification method is both
effective and efficient. Specifically, when combining the feature
re-identification with the state-of-the-art SLAM method [11], our method
achieves 67.3% and 87.5% absolute translation error reduction with only a small
additional computational cost on two public SLAM benchmark DBs: EuRoC and
TUM-VI respectively.
- Abstract(参考訳): リアルタイム視覚慣性SLAMの新たな特徴再同定手法を提案する。
最先端のビジュアル慣性SLAMメソッドのフロントエンドモジュール(例)
視覚特徴抽出およびマッチングスキーム)は、難易度の高いシナリオで容易に破壊され、ポーズ推定における不十分な視覚測定と累積誤差をもたらす画像フレーム上の特徴トラックに依存します。
本稿では,時空間感性サブグローバルマップから既存の特徴を再同定し,効率的なドリフトレスSLAM法を提案する。
長期間にわたって再特定された特徴は、拡張された視覚計測となり、長期の累積誤差を徐々に低減し、さらにシステム内にドリフトのないグローバルマップを構築する最適化モジュールに組み込まれる。
広範な実験により,本手法は効率的かつ効率的であることが判明した。
具体的には,機能再同定と最先端SLAM法[11]を組み合わせると,2つの公開SLAMベンチマークDB(EuRoCとTUM-VI)に対して,それぞれ67.3%と87.5%の絶対変換誤差削減を実現している。
関連論文リスト
- DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - Comparative Study of Visual SLAM-Based Mobile Robot Localization Using
Fiducial Markers [4.918853205874711]
本稿では,視覚的SLAMに基づく3つの移動ロボット位置決め方式の比較検討を行った。
SLAMベースのアプローチを比較する理由は、以前の研究が機能のみのメソッドよりも優れたパフォーマンスを示しているためである。
ハードウェア実験では、3つのモードで一貫した軌道誤差レベルを示し、ローカライゼーションモードはその中で最も短いランタイムを示す。
論文 参考訳(メタデータ) (2023-09-08T17:05:24Z) - FMapping: Factorized Efficient Neural Field Mapping for Real-Time Dense
RGB SLAM [3.6985351289638957]
本稿では,リアルタイム高密度RGB SLAMにおける色付き点クラウドマップの連続的推定を容易にする,効率的なニューラルネットワークマッピングフレームワークであるFMappingを紹介する。
本稿では,シーン表現のための効果的な因子化手法を提案し,シーン再構成の不確実性を低減するためのスライディングウィンドウ戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T11:51:46Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - An Online Semantic Mapping System for Extending and Enhancing Visual
SLAM [2.538209532048867]
本稿では,2次元から3次元の物体検出パイプラインと,生成されたランドマークの高速なデータアソシエーションを用いた,移動型視覚システムのためのリアルタイムセマンティックマッピング手法を提案する。
我々のシステムは,65msの平均反復時間でリアルタイムに到達し,公開データセット上での最先端SLAMのポーズ推定を最大68%向上させることができる。
論文 参考訳(メタデータ) (2022-03-08T09:14:37Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments [35.663671249819124]
本稿では,視点変化と知覚的エイリアスを同時に扱う新しい研究を提案する。
本稿では,VPRとSLAMの統合により,VPRの性能向上,特徴対応,グラフサブモジュールのポーズが著しく促進されることを示す。
知覚的エイリアス化や180度回転する極端な視点変化に拘わらず,最先端のパフォーマンスを実現するローカライズシステムについて初めて紹介する。
論文 参考訳(メタデータ) (2020-10-03T20:18:55Z) - Attention-SLAM: A Visual Monocular SLAM Learning from Human Gaze [19.99938539199779]
本稿では,新しいSLAMアプローチ,すなわちAttention-SLAMを提案する。
SalNavNet(ビジュアル・サリエンシ・モデル)と従来のモノラル・ビジュアル・SLAMを組み合わせている。
Attention-SLAMは、DSO(Direct Sparse Odometry)、ORB-SLAM(ORB-SLAM)、Salient DSO(Salient DSO)などのベンチマークよりも優れていた。
論文 参考訳(メタデータ) (2020-09-15T06:59:12Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。