論文の概要: ConvSequential-SLAM: A Sequence-based, Training-less Visual Place
Recognition Technique for Changing Environments
- arxiv url: http://arxiv.org/abs/2009.13454v1
- Date: Mon, 28 Sep 2020 16:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:17:22.319182
- Title: ConvSequential-SLAM: A Sequence-based, Training-less Visual Place
Recognition Technique for Changing Environments
- Title(参考訳): convsequential-slam : 環境変化のためのシーケンスベース・トレーニングレス視覚位置認識手法
- Authors: Mihnea-Alexandru Tomit\u{a}, Mubariz Zaffar, Michael Milford, Klaus
McDonald-Maier and Shoaib Ehsan
- Abstract要約: 視覚的場所認識(VPR)は、視線や外観の変化の下で、以前訪れた場所を正しく思い出す能力である。
本稿では,挑戦条件下での最先端位置マッチング性能を実現する手作りVPR技術を提案する。
- 参考スコア(独自算出の注目度): 19.437998213418446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Place Recognition (VPR) is the ability to correctly recall a
previously visited place under changing viewpoints and appearances. A large
number of handcrafted and deep-learning-based VPR techniques exist, where the
former suffer from appearance changes and the latter have significant
computational needs. In this paper, we present a new handcrafted VPR technique
that achieves state-of-the-art place matching performance under challenging
conditions. Our technique combines the best of 2 existing trainingless VPR
techniques, SeqSLAM and CoHOG, which are each robust to conditional and
viewpoint changes, respectively. This blend, namely ConvSequential-SLAM,
utilises sequential information and block-normalisation to handle appearance
changes, while using regional-convolutional matching to achieve
viewpoint-invariance. We analyse content-overlap in-between query frames to
find a minimum sequence length, while also re-using the image entropy
information for environment-based sequence length tuning. State-of-the-art
performance is reported in contrast to 8 contemporary VPR techniques on 4
public datasets. Qualitative insights and an ablation study on sequence length
are also provided.
- Abstract(参考訳): 視覚的場所認識(VPR)は、以前訪れた場所を視点や外観を変えて正しく思い出させる能力である。
手工芸とディープラーニングに基づくVPR技術が多数存在し、前者は外観変化に悩まされ、後者は計算上の重要なニーズを持つ。
本稿では,挑戦条件下での最先端位置マッチング性能を実現する手作りVPR技術を提案する。
本手法は,2つの既存のトレーニングレスVPR技術であるSeqSLAMとCoHOGを組み合わせることで,それぞれが条件や視点の変化に対して堅牢である。
このブレンド、すなわちConvSequential-SLAMは、逐次情報とブロック正規化を利用して外観変化を処理する。
本稿では,クエリフレーム間のコンテンツオーバーラップを分析し,最小シーケンス長を求めるとともに,画像エントロピー情報を環境ベースのシーケンス長チューニングに再利用する。
最新のパフォーマンスは、4つのパブリックデータセット上の8つの現代vpr技術とは対照的に報告されている。
配列長に関する定性的洞察とアブレーション研究も提供する。
関連論文リスト
- Context-Based Visual-Language Place Recognition [4.737519767218666]
視覚に基づく位置認識に対する一般的なアプローチは、低レベルの視覚的特徴に依存している。
シーン変更に対して堅牢で,追加のトレーニングを必要としない,新しいVPRアプローチを導入する。
ゼロショット・言語駆動セマンティックセグメンテーションモデルを用いて画素レベルの埋め込みを抽出し,セマンティックイメージ記述子を構築する。
論文 参考訳(メタデータ) (2024-10-25T06:59:11Z) - Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation [72.90144343056227]
ビデオ理解タスクのためのテキスト・ツー・ビデオ拡散モデル(T2V)から生成した視覚的表現について検討する。
固定されたT2Vモデル上に構築された専用コンポーネントを備えた新しいフレームワーク「VD-IT」を紹介する。
我々のVD-ITは、既存の最先端手法を超越して、非常に競争力のある結果を得る。
論文 参考訳(メタデータ) (2024-03-18T17:59:58Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Multi-Technique Sequential Information Consistency For Dynamic Visual
Place Recognition In Changing Environments [23.33092172788319]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
我々はMulti-Sequential Information Consistency (MuSIC)と呼ばれるVPRシステムを提案する。
論文 参考訳(メタデータ) (2024-01-16T10:35:01Z) - Harnessing Diffusion Models for Visual Perception with Meta Prompts [68.78938846041767]
本稿では,視覚知覚タスクの拡散モデルを用いた簡易かつ効果的な手法を提案する。
学習可能な埋め込み(メタプロンプト)を事前学習した拡散モデルに導入し、知覚の適切な特徴を抽出する。
提案手法は,NYU 深度 V2 と KITTI の深度推定タスク,および CityScapes のセマンティックセグメンテーションタスクにおいて,新しい性能記録を実現する。
論文 参考訳(メタデータ) (2023-12-22T14:40:55Z) - Condition-Invariant Semantic Segmentation [77.10045325743644]
我々は現在最先端のドメイン適応アーキテクチャ上で条件不変セマンティック(CISS)を実装している。
本手法は,通常の都市景観$to$ACDCベンチマークにおいて,2番目に高い性能を実現する。
CISSはBDD100K-nightやACDC-nightのようなトレーニング中に見えない領域によく一般化している。
論文 参考訳(メタデータ) (2023-05-27T03:05:07Z) - A-MuSIC: An Adaptive Ensemble System For Visual Place Recognition In
Changing Environments [22.58641358408613]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
A-MuSIC(Adaptive Multi-Self Identification and Correction)と呼ばれる適応型VPRシステム
A-MuSICは、テストされたすべてのベンチマークデータセット間で最先端のVPRパフォーマンスにマッチまたは打ち勝つ。
論文 参考訳(メタデータ) (2023-03-24T19:25:22Z) - COTS: Collaborative Two-Stream Vision-Language Pre-Training Model for
Cross-Modal Retrieval [59.15034487974549]
画像テキスト検索のための新しいコラボレーティブな2ストリームビジョン言語事前学習モデルCOTSを提案する。
我々のCOTSは,2ストリーム方式の中で最も高い性能を達成し,推論の速度は10,800倍に向上した。
重要なことは、我々のCOTSはテキストからビデオへの検索にも適用でき、広く使われているMSR-VTTデータセットに新たな最先端技術をもたらすことである。
論文 参考訳(メタデータ) (2022-04-15T12:34:47Z) - STA-VPR: Spatio-temporal Alignment for Visual Place Recognition [17.212503755962757]
画像間の距離を計測しながら空間領域から局所的な特徴を整列する適応動的時間ウォーピングアルゴリズムを提案する。
時間的アライメントに基づく画像シーケンスマッチングを行うために、局所マッチングDTWアルゴリズムを適用した。
その結果,提案手法はcnnに基づく手法を大幅に改善した。
論文 参考訳(メタデータ) (2021-03-25T03:27:42Z) - Early Bird: Loop Closures from Opposing Viewpoints for
Perceptually-Aliased Indoor Environments [35.663671249819124]
本稿では,視点変化と知覚的エイリアスを同時に扱う新しい研究を提案する。
本稿では,VPRとSLAMの統合により,VPRの性能向上,特徴対応,グラフサブモジュールのポーズが著しく促進されることを示す。
知覚的エイリアス化や180度回転する極端な視点変化に拘わらず,最先端のパフォーマンスを実現するローカライズシステムについて初めて紹介する。
論文 参考訳(メタデータ) (2020-10-03T20:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。