論文の概要: To Match or Not to Match: Revisiting Image Matching for Reliable Visual Place Recognition
- arxiv url: http://arxiv.org/abs/2504.06116v1
- Date: Tue, 08 Apr 2025 15:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:37.753416
- Title: To Match or Not to Match: Revisiting Image Matching for Reliable Visual Place Recognition
- Title(参考訳): マッチングするかどうか:信頼性の高い視覚的位置認識のための画像マッチングの再検討
- Authors: Davide Sferrazza, Gabriele Berton, Gabriele Trivigno, Carlo Masone,
- Abstract要約: 現代の検索システムは、現在のVPRデータセットがほぼ飽和しているため、再ランク付けによって結果が劣化する点にしばしば到達している。
画像マッチングを検証ステップとして使用して、再ランク付けが有益であるときに、不整合値が確実に予測できることを実証する。
- 参考スコア(独自算出の注目度): 4.008780119020479
- License:
- Abstract: Visual Place Recognition (VPR) is a critical task in computer vision, traditionally enhanced by re-ranking retrieval results with image matching. However, recent advancements in VPR methods have significantly improved performance, challenging the necessity of re-ranking. In this work, we show that modern retrieval systems often reach a point where re-ranking can degrade results, as current VPR datasets are largely saturated. We propose using image matching as a verification step to assess retrieval confidence, demonstrating that inlier counts can reliably predict when re-ranking is beneficial. Our findings shift the paradigm of retrieval pipelines, offering insights for more robust and adaptive VPR systems.
- Abstract(参考訳): 視覚的位置認識(VPR)はコンピュータビジョンにおいて重要な課題であり、伝統的に画像マッチングによる検索結果の再ランク付けによって強化されてきた。
しかし、近年のVPR手法の進歩により性能が大幅に向上し、再ランク付けの必要性が高まっている。
本稿では,現在のVPRデータセットがほぼ飽和しているため,近年の検索システムにおいて,再ランク付けによって結果が劣化する点がしばしばあることを示す。
画像マッチングを検証ステップとして使用して、再ランク付けが有益である場合に、不整合値が確実に予測できることを実証する。
我々の発見は、より堅牢で適応的なVPRシステムに対する洞察を提供する、検索パイプラインのパラダイムを変える。
関連論文リスト
- Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Graph Convolution Based Efficient Re-Ranking for Visual Retrieval [29.804582207550478]
特徴を更新することで、初期検索結果を洗練する効率的な再ランク付け手法を提案する。
具体的には、グラフ畳み込みネットワーク(GCN)に基づく再ランク付けを再構成し、特徴伝搬による視覚的検索タスクのための新しいグラフ畳み込みベース再ランク付け(GCR)を提案する。
特に、平面GCRは、クロスカメラ検索のために拡張され、異なるカメラ間の親和性関係を活用するために、改良された特徴伝搬定式化が提示される。
論文 参考訳(メタデータ) (2023-06-15T00:28:08Z) - Specialized Re-Ranking: A Novel Retrieval-Verification Framework for
Cloth Changing Person Re-Identification [36.4001616893874]
Re-IDは通常のRe-IDや生体認証技術よりもセキュリティの高い複雑なシナリオで動作することができる。
類似画像を扱う新しい検索検証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-07T14:47:28Z) - Benchmarking Visual-Inertial Deep Multimodal Fusion for Relative Pose
Regression and Odometry-aided Absolute Pose Regression [6.557612703872671]
視覚慣性ローカライゼーションは、仮想現実、自動運転車、航空機などのコンピュータビジョンやロボティクスアプリケーションにおいて重要な問題である。
本研究では,ポーズグラフの最適化とアテンションネットワークに基づく深層マルチモーダル融合の評価を行う。
本稿では,APR-RPRタスクの改善と,航空機やハンドヘルド機器のRPR-RPRタスクの改善について述べる。
論文 参考訳(メタデータ) (2022-08-01T15:05:26Z) - Contextual Similarity Aggregation with Self-attention for Visual
Re-ranking [96.55393026011811]
本稿では,自己注意を伴う文脈的類似性集約による視覚的再ランク付け手法を提案する。
提案手法の汎用性と有効性を示すため,4つのベンチマークデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2021-10-26T06:20:31Z) - Robust Reference-based Super-Resolution via C2-Matching [77.51610726936657]
超解像(Ref-SR)は、最近、高分解能(HR)参照画像を導入して、低分解能(LR)入力画像を強化するための有望なパラダイムとして登場した。
既存のRef-SR法は主に暗黙の対応に頼り、参照画像からHRテクスチャを借用し、入力画像の情報損失を補う。
本稿では,C2-Matchingを提案する。
論文 参考訳(メタデータ) (2021-06-03T16:40:36Z) - Cross-Modal Retrieval Augmentation for Multi-Modal Classification [61.5253261560224]
画像の非構造化外部知識源とそれに対応するキャプションを用いて視覚的質問応答を改善する。
まず,画像とキャプションを同一空間に埋め込むための新しいアライメントモデルを訓練し,画像検索の大幅な改善を実現する。
第2に、トレーニングされたアライメントモデルを用いた検索強化マルチモーダルトランスは、強いベースライン上でのVQAの結果を改善することを示す。
論文 参考訳(メタデータ) (2021-04-16T13:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。