論文の概要: Global-to-Local or Local-to-Global? Enhancing Image Retrieval with Efficient Local Search and Effective Global Re-ranking
- arxiv url: http://arxiv.org/abs/2509.04351v2
- Date: Fri, 05 Sep 2025 11:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 12:28:42.605462
- Title: Global-to-Local or Local-to-Global? Enhancing Image Retrieval with Efficient Local Search and Effective Global Re-ranking
- Title(参考訳): グローバル・ローカル・ローカル・ローカル・ローカル・グローバル? 効率的なローカル検索と効果的なグローバル・リグレードによる画像検索の強化
- Authors: Dror Aiger, Bingyi Cao, Kaifeng Chen, Andre Araujo,
- Abstract要約: 本稿では,効率的な局所的特徴探索がグローバルな特徴の再ランク付けに合致する局所的特徴検索パラダイムを提案する。
Revisited Oxford と Paris のデータセットに新たな最先端結果を設定することで,ソリッド検索性能を実証する。
- 参考スコア(独自算出の注目度): 10.523841607264414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dominant paradigm in image retrieval systems today is to search large databases using global image features, and re-rank those initial results with local image feature matching techniques. This design, dubbed global-to-local, stems from the computational cost of local matching approaches, which can only be afforded for a small number of retrieved images. However, emerging efficient local feature search approaches have opened up new possibilities, in particular enabling detailed retrieval at large scale, to find partial matches which are often missed by global feature search. In parallel, global feature-based re-ranking has shown promising results with high computational efficiency. In this work, we leverage these building blocks to introduce a local-to-global retrieval paradigm, where efficient local feature search meets effective global feature re-ranking. Critically, we propose a re-ranking method where global features are computed on-the-fly, based on the local feature retrieval similarities. Such re-ranking-only global features leverage multidimensional scaling techniques to create embeddings which respect the local similarities obtained during search, enabling a significant re-ranking boost. Experimentally, we demonstrate solid retrieval performance, setting new state-of-the-art results on the Revisited Oxford and Paris datasets.
- Abstract(参考訳): 現在の画像検索システムにおける支配的なパラダイムは、グローバルな画像特徴を用いて大規模なデータベースを検索し、それらの初期結果を局所的な画像特徴マッチング技術で再ランクすることである。
この設計はグローバル・ツー・ローカルと呼ばれ、局所マッチングアプローチの計算コストに起因している。
しかし,より効率的な局所特徴探索手法が登場し,特に大規模に詳細な検索が可能になったことで,グローバル特徴探索でしばしば見逃される部分的マッチングを見つけることが可能になった。
並行して、グローバルな機能ベースの再ランク付けは、高い計算効率で有望な結果を示している。
本研究では、これらのビルディングブロックを利用して、効率的な局所特徴探索が効率的なグローバル特徴の再ランク付けを実現する、ローカル-グローバル検索パラダイムを導入する。
本稿では,局所的な特徴検索の類似性に基づいて,グローバルな特徴をオンザフライで計算する手法を提案する。
このような再ランクオンリーなグローバル機能は、多次元スケーリング技術を活用して、検索時に得られる局所的な類似性に配慮した埋め込みを生成することで、大幅な再ランクアップを可能にしている。
実験により,リビジョンドオックスフォードとパリのデータセットに対して,検索性能を実証した。
関連論文リスト
- Swarm Intelligence in Geo-Localization: A Multi-Agent Large Vision-Language Model Collaborative Framework [51.26566634946208]
smileGeoは、新しい視覚的ジオローカライゼーションフレームワークである。
エージェント間のコミュニケーションによって、SmithGeoはこれらのエージェントの固有の知識と、検索された情報を統合する。
その結果,本手法は現在の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T03:31:30Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - Yes, we CANN: Constrained Approximate Nearest Neighbors for local
feature-based visual localization [2.915868985330569]
Constrained Approximate Nearest Neighbors (CANN) は、局所的特徴のみを用いて、幾何学と外観空間の両方にわたって k-アネレスト近傍の合同解である。
提案手法は,現在最先端のグローバルな特徴量検索と,局所的な特徴量集計手法を用いたアプローチの両方に優れる。
論文 参考訳(メタデータ) (2023-06-15T10:12:10Z) - SuperGF: Unifying Local and Global Features for Visual Localization [13.869227429939423]
SuperGFは、画像マッチング固有のローカル機能を直接操作するトランスフォーマーベースの集約モデルである。
我々は,高密度でスパースな学習ベースや手作りの記述子など,様々なローカル特徴を用いたSuperGFの実装を提供する。
論文 参考訳(メタデータ) (2022-12-23T13:48:07Z) - Remote Sensing Cross-Modal Text-Image Retrieval Based on Global and
Local Information [15.32353270625554]
リモートセンシング(RS)画像の高速かつ柔軟な情報抽出を可能にするため,クロスモーダルリモートセンシングテキスト画像検索(RSCTIR)は近年,緊急な研究ホットスポットとなっている。
まず,グローバル・ローカル情報(GaLR)に基づく新しいRSCTIRフレームワークを提案し,多レベル情報ダイナミックフュージョン(MIDF)モジュールを設計し,異なるレベルの機能を効果的に統合する。
公開データセットの実験は、RSCTIRタスク上でのGaLR法の最先端性能を強く実証している。
論文 参考訳(メタデータ) (2022-04-21T03:18:09Z) - DOLG: Single-Stage Image Retrieval with Deep Orthogonal Fusion of Local
and Global Features [42.62089148690047]
エンドツーエンドの画像検索のための情報融合フレームワークとして,Deep Orthogonal Local and Global (DOLG)を提案する。
マルチアトラスな畳み込みと自己注意によって、代表的ローカル情報を注意深く抽出する。
フレームワーク全体がエンドツーエンドの差別化が可能で、イメージレベルのラベルでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-08-06T03:14:09Z) - Watching You: Global-guided Reciprocal Learning for Video-based Person
Re-identification [82.6971648465279]
映像に基づくRe-IDのための新しいグローバルガイド相互学習フレームワークを提案する。
我々のアプローチは他の最先端のアプローチよりも優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-03-07T12:27:42Z) - Global2Local: Efficient Structure Search for Video Action Segmentation [64.99046987598075]
グローバルからローカルへの検索方式により,より良い受容的場の組み合わせを見つけることを提案する。
提案手法は, 粗い組み合わせを見つけるためにグローバル検索と局所探索を併用し, 洗練された受容場の組み合わせパターンを得る。
我々のグローバル-ローカル検索は、既存のアクションセグメンテーション手法にプラグインすることで、最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-01-04T12:06:03Z) - Unifying Deep Local and Global Features for Image Search [9.614694312155798]
グローバルおよびローカルな画像特徴を1つのディープモデルに統一し、効率的な特徴抽出による正確な検索を可能にする。
我々のモデルは、改訂されたオックスフォードとパリのデータセットにおける最先端の画像検索と、Google Landmarksデータセットv2における最先端の単一モデルインスタンスレベルの認識を実現している。
論文 参考訳(メタデータ) (2020-01-14T19:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。