論文の概要: Unsupervised Complementary-aware Multi-process Fusion for Visual Place
Recognition
- arxiv url: http://arxiv.org/abs/2112.04701v1
- Date: Thu, 9 Dec 2021 04:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:01:08.008528
- Title: Unsupervised Complementary-aware Multi-process Fusion for Visual Place
Recognition
- Title(参考訳): 視覚位置認識のための教師なし相補的アウェアマルチプロセス融合
- Authors: Stephen Hausler, Tobias Fischer and Michael Milford
- Abstract要約: 本稿では,現在のデプロイメント環境において,最も堅牢なVPR技術群を探索する教師なしアルゴリズムを提案する。
提案した動的マルチプロセス融合(Dyn-MPF)は,様々な競合手法と比較して,VPR性能が優れている。
- 参考スコア(独自算出の注目度): 28.235055888073855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent approach to the Visual Place Recognition (VPR) problem has been to
fuse the place recognition estimates of multiple complementary VPR techniques
simultaneously. However, selecting the optimal set of techniques to use in a
specific deployment environment a-priori is a difficult and unresolved
challenge. Further, to the best of our knowledge, no method exists which can
select a set of techniques on a frame-by-frame basis in response to
image-to-image variations. In this work, we propose an unsupervised algorithm
that finds the most robust set of VPR techniques to use in the current
deployment environment, on a frame-by-frame basis. The selection of techniques
is determined by an analysis of the similarity scores between the current query
image and the collection of database images and does not require ground-truth
information. We demonstrate our approach on a wide variety of datasets and VPR
techniques and show that the proposed dynamic multi-process fusion (Dyn-MPF)
has superior VPR performance compared to a variety of challenging competitive
methods, some of which are given an unfair advantage through access to the
ground-truth information.
- Abstract(参考訳): 視覚的位置認識(VPR)問題に対する最近のアプローチは、複数の相補的なVPR技術の場所認識推定を同時に融合させることである。
しかしながら、特定のデプロイメント環境で使用する最適なテクニックのセットを選択することは、困難かつ未解決の課題である。
さらに,我々の知る限りでは,画像と画像のバリエーションに応じて,フレーム単位のテクニックを選択できる手法は存在しない。
本研究では,現在のデプロイメント環境において,フレーム単位で最も堅牢なVPR手法の集合を探索する教師なしアルゴリズムを提案する。
手法の選択は、現在の問合せ画像とデータベース画像の収集との類似度スコアの分析により決定され、接地情報を必要としない。
提案手法は,多種多様なデータセットとvpr技術に適用し,提案手法であるdyn-mpf(dynamic multi-process fusion)が様々な競合手法に比べて優れたvpr性能を持つことを示す。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Multi-Technique Sequential Information Consistency For Dynamic Visual
Place Recognition In Changing Environments [23.33092172788319]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
我々はMulti-Sequential Information Consistency (MuSIC)と呼ばれるVPRシステムを提案する。
論文 参考訳(メタデータ) (2024-01-16T10:35:01Z) - Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - Learning from Multi-Perception Features for Real-Word Image
Super-resolution [87.71135803794519]
入力画像の複数の知覚的特徴を利用する新しいSR手法MPF-Netを提案する。
本稿では,MPFEモジュールを組み込んで,多様な知覚情報を抽出する手法を提案する。
また、モデルの学習能力を向上する対照的な正規化項(CR)も導入する。
論文 参考訳(メタデータ) (2023-05-26T07:35:49Z) - A-MuSIC: An Adaptive Ensemble System For Visual Place Recognition In
Changing Environments [22.58641358408613]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
A-MuSIC(Adaptive Multi-Self Identification and Correction)と呼ばれる適応型VPRシステム
A-MuSICは、テストされたすべてのベンチマークデータセット間で最先端のVPRパフォーマンスにマッチまたは打ち勝つ。
論文 参考訳(メタデータ) (2023-03-24T19:25:22Z) - Boosting Performance of a Baseline Visual Place Recognition Technique by
Predicting the Maximally Complementary Technique [25.916992891359055]
最近の視覚的位置認識問題に対する有望な1つのアプローチは、複数の相補的なVPR手法の場所認識推定を融合させることである。
これらのアプローチでは、選択的に融合する前にすべての潜在的なVPRメソッドをブルートフォースで実行する必要がある。
ここでは、既知の単一ベースVPR技術から始まる別のアプローチを提案し、それと融合するために最も相補的な付加VPR技術を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-10-14T04:32:23Z) - Improving Visual Place Recognition Performance by Maximising
Complementarity [22.37892767050086]
本稿では,最先端VPR手法の相互補完性を初めて体系的に検討する。
それらの組み合わせを識別することで、パフォーマンスが向上する。
結果は、広く使われている10のVPRデータセット上で8つの最先端のVPR手法に対して提示される。
論文 参考訳(メタデータ) (2021-02-16T19:18:33Z) - Intelligent Reference Curation for Visual Place Recognition via Bayesian
Selective Fusion [24.612272323346144]
視覚的位置認識の鍵となる課題は、劇的な視覚的外観の変化にもかかわらず、場所を認識することである。
本稿では,情報参照画像を積極的に選択・融合する手法として,ベイズ選択融合(Bayesian Selective Fusion)を提案する。
我々のアプローチは、ダイナミックな視覚環境が一般的である長期的なロボット自律性に適している。
論文 参考訳(メタデータ) (2020-10-19T05:17:35Z) - Weakly supervised cross-domain alignment with optimal transport [102.8572398001639]
画像オブジェクトとテキストシーケンス間のクロスドメインアライメントは多くの視覚言語タスクの鍵となる。
本稿では,画像とテキスト間の微粒な意味的類似点の同定と最適化のための新しいアプローチについて検討する。
論文 参考訳(メタデータ) (2020-08-14T22:48:36Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。