論文の概要: QdaVPR: A novel query-based domain-agnostic model for visual place recognition
- arxiv url: http://arxiv.org/abs/2603.07414v1
- Date: Sun, 08 Mar 2026 02:01:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.495068
- Title: QdaVPR: A novel query-based domain-agnostic model for visual place recognition
- Title(参考訳): QdaVPR:視覚的位置認識のための新しいクエリベースのドメイン非依存モデル
- Authors: Shanshan Wan, Lai Kang, Yingmei Wei, Tianrui Shen, Haixuan Wang, Chao Zuo,
- Abstract要約: 視覚的位置認識(VPR)は、その視覚的特徴のみに基づいて画像の位置を予測することを目的としている。
本稿ではQdaVPRと呼ばれる新しいクエリベースのドメインに依存しないVPRモデルを提案する。
複数のVPRベンチマークにおいて、大きなドメインバリエーションを持つ最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 2.9951269291329905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual place recognition (VPR) aiming at predicting the location of an image based solely on its visual features is a fundamental task in robotics and autonomous systems. Domain variation remains one of the main challenges in VPR and is relatively unexplored. Existing VPR models attempt to achieve domain agnosticism either by training on large-scale datasets that inherently contain some domain variations, or by being specifically adapted to particular target domains. In practice, the former lacks explicit domain supervision, while the latter generalizes poorly to unseen domain shifts. This paper proposes a novel query-based domain-agnostic VPR model called QdaVPR. First, a dual-level adversarial learning framework is designed to encourage domain invariance for both the query features forming the global descriptor and the image features from which these query features are derived. Then, a triplet supervision based on query combinations is designed to enhance the discriminative power of the global descriptors. To support the learning process, we augment a large-scale VPR dataset using style transfer methods, generating various synthetic domains with corresponding domain labels as auxiliary supervision. Extensive experiments show that QdaVPR achieves state-of-the-art performance on multiple VPR benchmarks with significant domain variations. Specifically, it attains the best Recall@1 and Recall@10 on nearly all test scenarios: 93.5%/98.6% on Nordland (seasonal changes), 97.5%/99.0% on Tokyo24/7 (day-night transitions), and the highest Recall@1 across almost all weather conditions on the SVOX dataset. Our code will be released at https://github.com/shuimushan/QdaVPR.
- Abstract(参考訳): 視覚的特徴のみに基づく画像の位置予測を目的とした視覚的位置認識(VPR)は、ロボット工学および自律システムにおける基本的な課題である。
ドメインの変化は、VPRの主要な課題の1つであり、比較的未調査である。
既存のVPRモデルは、本質的にいくつかのドメインバリエーションを含む大規模データセットのトレーニングや、特定のターゲットドメインに特化して適用することで、ドメイン非依存を達成しようとする。
実際には、前者は明示的なドメインの監督を欠いており、後者は目に見えないドメインのシフトを一般化していない。
本稿ではQdaVPRと呼ばれる新しいクエリベースのドメインに依存しないVPRモデルを提案する。
まず,グローバルディスクリプタを構成する問合せ特徴と,これらの問合せ特徴が導出される画像特徴の両方に対して,ドメイン不変性を促進するために,二重レベル逆学習フレームワークを設計する。
次に、クエリの組み合わせに基づく三重項監視を設計し、グローバルな記述子の識別能力を高める。
学習プロセスを支援するために,スタイル転送手法を用いて大規模VPRデータセットを増強し,対応するドメインラベルを持つ各種合成ドメインを補助監督として生成する。
大規模な実験により、QdaVPRは、大きなドメイン変化を持つ複数のVPRベンチマークで最先端のパフォーマンスを達成することが示された。
具体的には、北欧で93.5%/98.6%、東京24/7で97.5%/99.0%、SVOXデータセットでほぼ全ての気象条件で最も高いRecall@1とRecall@10を達成している。
私たちのコードはhttps://github.com/shuimushan/QdaVPR.comでリリースされます。
関連論文リスト
- Rein++: Efficient Generalization and Adaptation for Semantic Segmentation with Vision Foundation Models [47.66611300605174]
Rein++は効率的なVFMベースのセグメンテーションフレームワークである。
これは限られたデータからの優れた一般化を示す。
多様な未ラベルシナリオへの効果的な適応を可能にする。
論文 参考訳(メタデータ) (2025-08-03T08:53:30Z) - SciceVPR: Stable Cross-Image Correlation Enhanced Model for Visual Place Recognition [4.540127373592404]
視覚的位置認識(VPR)は、ロボット工学と自律システムにとって大きな課題である。
本稿では,ScisVPRと呼ばれるVPRのための安定なクロスイメージ相関強化モデルを提案する。
論文 参考訳(メタデータ) (2025-02-28T03:05:30Z) - DomainInv: Domain Invariant Fine Tuning and Adversarial Label Correction
For QA Domain Adaptation [27.661609140918916]
既存の質問回答システム(QA)は、目に見えない領域やドメイン外分布からの質問に答える能力によって制限される。
最も重要なことは、既存のQAドメイン適応手法は、合成データを生成するか、ターゲットのドメインデータに擬似ラベルを付けたものである。
本稿では,未ラベル対象領域に対する教師なし領域適応を,ソースドメインの監督を引き続き用いながら,ソースドメイン近傍のターゲット表現を転送することで提案する。
論文 参考訳(メタデータ) (2023-05-04T18:13:17Z) - A Two-Stage Framework with Self-Supervised Distillation For Cross-Domain Text Classification [46.47734465505251]
クロスドメインテキスト分類は、ラベル付きデータを持たないターゲットドメインにモデルを適応させることを目的としている。
クロスドメインテキスト分類のための2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-18T06:21:40Z) - DANNTe: a case study of a turbo-machinery sensor virtualization under
domain shift [0.0]
ドメイン適応(DA)時系列回帰タスク(DANNTe)に取り組むための逆学習法を提案する。
このレグレッションは、ガスタービンに搭載されたセンサーの仮想コピーを構築することを目的としており、特定の状況で欠落する可能性がある物理的なセンサーの代わりに使用される。
ソースドメインでのみトレーニングされたベースラインモデルと比較して,回帰性能が大幅に向上したことを報告した。
論文 参考訳(メタデータ) (2022-01-11T09:24:33Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。