論文の概要: Deep Visual Geo-localization Benchmark
- arxiv url: http://arxiv.org/abs/2204.03444v2
- Date: Fri, 9 Jun 2023 10:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:08:52.532534
- Title: Deep Visual Geo-localization Benchmark
- Title(参考訳): deep visual geo-localization benchmark (英語)
- Authors: Gabriele Berton, Riccardo Mereu, Gabriele Trivigno, Carlo Masone,
Gabriela Csurka, Torsten Sattler, Barbara Caputo
- Abstract要約: 我々は、ビジュアルジオローカライゼーション(VG)のための新しいオープンソースのベンチマークフレームワークを提案する。
このフレームワークは、広く使用されている幅広いアーキテクチャの構築、トレーニング、テストを可能にする。
コードとトレーニングされたモデルはhttps://deep-vg-bench.herokuapp.com/で公開されている。
- 参考スコア(独自算出の注目度): 42.675402470265674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new open-source benchmarking framework for Visual
Geo-localization (VG) that allows to build, train, and test a wide range of
commonly used architectures, with the flexibility to change individual
components of a geo-localization pipeline. The purpose of this framework is
twofold: i) gaining insights into how different components and design choices
in a VG pipeline impact the final results, both in terms of performance
(recall@N metric) and system requirements (such as execution time and memory
consumption); ii) establish a systematic evaluation protocol for comparing
different methods. Using the proposed framework, we perform a large suite of
experiments which provide criteria for choosing backbone, aggregation and
negative mining depending on the use-case and requirements. We also assess the
impact of engineering techniques like pre/post-processing, data augmentation
and image resizing, showing that better performance can be obtained through
somewhat simple procedures: for example, downscaling the images' resolution to
80% can lead to similar results with a 36% savings in extraction time and
dataset storage requirement. Code and trained models are available at
https://deep-vg-bench.herokuapp.com/.
- Abstract(参考訳): 本稿では,ビジュアルジオローカライゼーション(VG)のための新しいオープンソースのベンチマークフレームワークを提案する。このフレームワークは,ジオローカライゼーションパイプラインの個々のコンポーネントを変更する柔軟性を備えた,広く使用されているアーキテクチャの構築,トレーニング,テストを可能にする。
このフレームワークの目的は2つある。
i) VGパイプラインにおける異なるコンポーネントや設計の選択が、パフォーマンス(recall@Nメトリック)とシステム要件(実行時間やメモリ消費など)の両方の最終的な結果にどのように影響するかについての洞察を得る。
二 異なる方法を比較するための体系的な評価プロトコルを確立すること。
提案フレームワークを用いて,使用状況や要件に応じてバックボーン,アグリゲーション,負マイニングを選択するための基準を提供する実験スイートを多数実施した。
また,プリ/ポスト処理,データ拡張,画像リサイジングといったエンジニアリング手法の影響を評価し,画像の解像度を80%までダウンスケールすることで,抽出時間とデータセットのストレージ要件を36%削減できることを示した。
コードとトレーニングされたモデルはhttps://deep-vg-bench.herokuapp.com/で入手できる。
関連論文リスト
- A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Benchmarking Implicit Neural Representation and Geometric Rendering in Real-Time RGB-D SLAM [6.242958695705305]
インプシット・ニューラル表現(INR)と幾何学的レンダリングの組み合わせは、リアルタイム高密度RGB-D SLAMに採用されている。
我々は、広く使われているINRとレンダリング関数の幅広いスペクトルの性能を評価するための、最初のオープンソースのベンチマークフレームワークを構築した。
RGB-D SLAMシステムに対応するために,高忠実度高密度グリッドマッピングのための明示的なハイブリッド符号化を提案する。
論文 参考訳(メタデータ) (2024-03-28T14:59:56Z) - IOHexperimenter: Benchmarking Platform for Iterative Optimization
Heuristics [3.6980928405935813]
IOHexperimenterは、反復最適化をベンチマークするための、使いやすく、高度にカスタマイズ可能なツールボックスを提供することを目標としている。
IOHexperimenterはスタンドアロンのツールとして、あるいはIOHanalyzerのようなIOHknownrの他のコンポーネントを使用するベンチマークパイプラインの一部として使用することができる。
論文 参考訳(メタデータ) (2021-11-07T13:11:37Z) - Contextual Fine-to-Coarse Distillation for Coarse-grained Response
Selection in Open-Domain Conversations [48.046725390986595]
オープンドメイン会話における粗粒度応答選択のための文脈ファイン・ツー・コアス(CFC)蒸留モデルを提案する。
提案モデルの性能を評価するため,RedditコメントダンプとTwitterコーパスに基づく2つの新しいデータセットを構築した。
論文 参考訳(メタデータ) (2021-09-24T08:22:35Z) - Retrieval and Localization with Observation Constraints [12.010135672015704]
RLOCSと呼ばれる視覚的再局在化手法を提案する。
画像検索、意味整合性、幾何学的検証を組み合わせて正確な推定を行う。
本手法は, ローカライゼーションベンチマークにおいて多くの性能向上を実現している。
論文 参考訳(メタデータ) (2021-08-19T06:14:33Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Robust Image Retrieval-based Visual Localization using Kapture [10.249293519246478]
視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-07-27T21:10:35Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Image Matching across Wide Baselines: From Paper to Practice [80.9424750998559]
局所的な特徴とロバストな推定アルゴリズムの包括的なベンチマークを導入する。
パイプラインのモジュール構造は、さまざまなメソッドの容易な統合、構成、組み合わせを可能にします。
適切な設定で、古典的な解決策は依然として芸術の知覚された状態を上回る可能性があることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。