論文の概要: Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments
- arxiv url: http://arxiv.org/abs/2010.01421v3
- Date: Sun, 20 Dec 2020 13:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:39:49.276448
- Title: Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments
- Title(参考訳): 室内環境における初期鳥のループ閉鎖 : 対向的視点から
- Authors: Satyajit Tourani, Dhagash Desai, Udit Singh Parihar, Sourav Garg, Ravi
Kiran Sarvadevabhatla, Michael Milford, K. Madhava Krishna
- Abstract要約: 本稿では,視点変化と知覚的エイリアスを同時に扱う新しい研究を提案する。
本稿では,VPRとSLAMの統合により,VPRの性能向上,特徴対応,グラフサブモジュールのポーズが著しく促進されることを示す。
知覚的エイリアス化や180度回転する極端な視点変化に拘わらず,最先端のパフォーマンスを実現するローカライズシステムについて初めて紹介する。
- 参考スコア(独自算出の注目度): 35.663671249819124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant advances have been made recently in Visual Place Recognition
(VPR), feature correspondence, and localization due to the proliferation of
deep-learning-based methods. However, existing approaches tend to address,
partially or fully, only one of two key challenges: viewpoint change and
perceptual aliasing. In this paper, we present novel research that
simultaneously addresses both challenges by combining deep-learned features
with geometric transformations based on reasonable domain assumptions about
navigation on a ground-plane, whilst also removing the requirement for
specialized hardware setup (e.g. lighting, downwards facing cameras). In
particular, our integration of VPR with SLAM by leveraging the robustness of
deep-learned features and our homography-based extreme viewpoint invariance
significantly boosts the performance of VPR, feature correspondence, and pose
graph submodules of the SLAM pipeline. For the first time, we demonstrate a
localization system capable of state-of-the-art performance despite perceptual
aliasing and extreme 180-degree-rotated viewpoint change in a range of
real-world and simulated experiments. Our system is able to achieve early loop
closures that prevent significant drifts in SLAM trajectories. We also compare
extensively several deep architectures for VPR and descriptor matching. We also
show that superior place recognition and descriptor matching across opposite
views results in a similar performance gain in back-end pose graph
optimization.
- Abstract(参考訳): 近年,視覚位置認識(vpr),特徴対応,局所化において,深層学習に基づく手法の普及が著しい進歩を遂げている。
しかし、既存のアプローチは、視点の変化と知覚的エイリアスという2つの主要な課題のうちの1つに対処する傾向があります。
本稿では,地平面上のナビゲーションに関する合理的なドメイン仮定に基づいて,深層学習特徴と幾何変換を組み合わせることにより,両課題を同時に解決するとともに,特殊なハードウェア設定(照明,下向きカメラなど)の要件を除去する。
特に,VPRとSLAMの統合は,深く学習した特徴の堅牢性とホモグラフィに基づく極端な視点不変性を利用して,VPRの性能,特徴対応性,SLAMパイプラインのグラフサブモジュールのポーズを著しく向上させる。
実世界およびシミュレーション実験において,知覚的エイリアスと極端な180度回転の視点変化にもかかわらず,最先端の性能を発揮できるローカライズシステムを示す。
本システムでは,スラム軌跡のドリフトを防止できる早期ループクロージャを実現できる。
また、VPRとディスクリプタマッチングのためのディープアーキテクチャを幅広く比較する。
また, 位置認識とデクリプタマッチングが相反する結果, バックエンドポーズグラフの最適化において, 同様の性能向上をもたらすことを示す。
関連論文リスト
- A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - EffoVPR: Effective Foundation Model Utilization for Visual Place Recognition [6.996304653818122]
本稿では,視覚的位置認識のための基盤モデルの可能性を活用するための,シンプルながら強力なアプローチを提案する。
まず、自己注意層から抽出した機能が、VPRの強力なリランカとして機能することを実証する。
次に、内部のViT層をプールに利用した単一ステージの手法が、最先端の結果をもたらすグローバルな特徴を生み出すことを実証した。
論文 参考訳(メタデータ) (2024-05-28T11:24:41Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - DH-PTAM: A Deep Hybrid Stereo Events-Frames Parallel Tracking And Mapping System [1.443696537295348]
本稿では,視覚的並列追跡・マッピング(PTAM)システムに対するロバストなアプローチを提案する。
提案手法は,異種多モード視覚センサの強度を統一参照フレームに組み合わせたものである。
私たちの実装のリサーチベースのPython APIはGitHubで公開されています。
論文 参考訳(メタデータ) (2023-06-02T19:52:13Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Consistency Regularization for Deep Face Anti-Spoofing [69.70647782777051]
顔認証システムでは、顔認証(FAS)が重要な役割を担っている。
このエキサイティングな観察によって、異なる視点の特徴整合性を促進することが、FASモデルを促進するための有望な方法かもしれないと推測する。
FASにおけるEPCR(Embeddding-level and Prediction-level Consistency Regularization)とEPCR(Embeddding-level Consistency Regularization)を併用した。
論文 参考訳(メタデータ) (2021-11-24T08:03:48Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - RoRD: Rotation-Robust Descriptors and Orthographic Views for Local
Feature Matching [32.10261486751993]
本稿では,データ拡張と視点投影による不変記述子の学習を組み合わせる新しい枠組みを提案する。
提案手法の有効性をポーズ推定や視覚的位置認識などの重要課題に対して評価する。
論文 参考訳(メタデータ) (2021-03-15T17:40:25Z) - ConvSequential-SLAM: A Sequence-based, Training-less Visual Place
Recognition Technique for Changing Environments [19.437998213418446]
視覚的場所認識(VPR)は、視線や外観の変化の下で、以前訪れた場所を正しく思い出す能力である。
本稿では,挑戦条件下での最先端位置マッチング性能を実現する手作りVPR技術を提案する。
論文 参考訳(メタデータ) (2020-09-28T16:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。