論文の概要: UGNA-VPR: A Novel Training Paradigm for Visual Place Recognition Based on Uncertainty-Guided NeRF Augmentation
- arxiv url: http://arxiv.org/abs/2503.21338v1
- Date: Thu, 27 Mar 2025 10:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:51:24.998960
- Title: UGNA-VPR: A Novel Training Paradigm for Visual Place Recognition Based on Uncertainty-Guided NeRF Augmentation
- Title(参考訳): UGNA-VPR:不確実性誘導型NeRF拡張に基づく視覚的位置認識のための新しい訓練パラダイム
- Authors: Yehui Shen, Lei Zhang, Qingqiu Li, Xiongwei Zhao, Yue Wang, Huimin Lu, Xieyuanli Chen,
- Abstract要約: 視覚的位置認識(VPR)は、ロボットが以前訪れた場所を特定するために不可欠である。
既存のVPRデータセットのほとんどは、単一のビューポイントシナリオに限定されている。
本稿では,既存のVPRネットワークの性能向上のための新しいトレーニングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 11.77871782073211
- License:
- Abstract: Visual place recognition (VPR) is crucial for robots to identify previously visited locations, playing an important role in autonomous navigation in both indoor and outdoor environments. However, most existing VPR datasets are limited to single-viewpoint scenarios, leading to reduced recognition accuracy, particularly in multi-directional driving or feature-sparse scenes. Moreover, obtaining additional data to mitigate these limitations is often expensive. This paper introduces a novel training paradigm to improve the performance of existing VPR networks by enhancing multi-view diversity within current datasets through uncertainty estimation and NeRF-based data augmentation. Specifically, we initially train NeRF using the existing VPR dataset. Then, our devised self-supervised uncertainty estimation network identifies places with high uncertainty. The poses of these uncertain places are input into NeRF to generate new synthetic observations for further training of VPR networks. Additionally, we propose an improved storage method for efficient organization of augmented and original training data. We conducted extensive experiments on three datasets and tested three different VPR backbone networks. The results demonstrate that our proposed training paradigm significantly improves VPR performance by fully utilizing existing data, outperforming other training approaches. We further validated the effectiveness of our approach on self-recorded indoor and outdoor datasets, consistently demonstrating superior results. Our dataset and code have been released at \href{https://github.com/nubot-nudt/UGNA-VPR}{https://github.com/nubot-nudt/UGNA-VPR}.
- Abstract(参考訳): 視覚的場所認識(VPR)は、ロボットが以前訪れた場所を特定するために不可欠であり、屋内と屋外の両方で自律的なナビゲーションにおいて重要な役割を果たしている。
しかしながら、既存のVPRデータセットのほとんどは単一視点のシナリオに限られており、特に多方向駆動や特徴スパースシーンにおいて、認識精度が低下する。
さらに、これらの制限を緩和するための追加データを取得することは、しばしばコストがかかる。
本稿では、不確実性推定とNeRFに基づくデータ拡張により、現在のデータセットにおけるマルチビューの多様性を高めることにより、既存のVPRネットワークの性能を向上させるための新たなトレーニングパラダイムを提案する。
具体的には、まず既存のVPRデータセットを使用してNeRFをトレーニングする。
そこで,提案した自己監督型不確実性推定ネットワークは,不確実性の高い場所を同定する。
これらの不確実な場所のポーズは、VPRネットワークのさらなるトレーニングのための新しい合成観測を生成するために、NeRFに入力される。
さらに,拡張およびオリジナルトレーニングデータの効率的な整理のための改良された記憶方法を提案する。
3つのデータセットについて広範な実験を行い、3つの異なるVPRバックボーンネットワークを試験した。
その結果,提案したトレーニングパラダイムは,既存のデータを完全に活用することで,VPRの性能を著しく向上し,他のトレーニング手法よりも優れていた。
さらに,自己記録した屋内および屋外のデータセットに対するアプローチの有効性を検証し,優れた結果が得られた。
我々のデータセットとコードは \href{https://github.com/nubot-nudt/UGNA-VPR}{https://github.com/nubot-nudt/UGNA-VPR} でリリースされた。
関連論文リスト
- Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - ML-based Approaches for Wireless NLOS Localization: Input
Representations and Uncertainty Estimation [2.2748974006378933]
非線形(NLOS)ローカライゼーションは多くの無線ネットワークアプリケーションにおいて重要である。
本稿では, 単一無線無線経路特徴, (ii) 無線無線リンク特徴 (multi-path) および (iii) 画像ベース表現の3つの異なる入力表現について検討する。
後者の2つの新しい表現に触発されて、2つの畳み込みニューラルネットワーク(CNN)を設計し、NLOSのローカライゼーション性能を著しく改善していないが、よりリッチな予測出力をサポートすることができることを示した。
論文 参考訳(メタデータ) (2023-04-22T13:13:07Z) - Self-Supervised Place Recognition by Refining Temporal and Featural Pseudo Labels from Panoramic Data [16.540900776820084]
本稿では,時間的近傍と学習可能な特徴近傍を用いて未知の空間近傍を探索するTF-VPRという新しいフレームワークを提案する。
本手法は,リコール率,ロバスト性,方向多様性において,自己監督ベースラインよりも優れる。
論文 参考訳(メタデータ) (2022-08-19T12:59:46Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - EchoVPR: Echo State Networks for Visual Place Recognition [0.8155575318208631]
一連のESNを提示し、それらのVPR問題への適用性について分析する。
ESNは、データのシーケンシャルなダイナミクスを利用するクラスリード型VPRモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T19:25:16Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Denoising IMU Gyroscopes with Deep Learning for Open-Loop Attitude
Estimation [0.0]
本稿では,慣性計測ユニット(IMU)のジャイロスコープを地中真実データを用いて識別する学習手法を提案する。
得られたアルゴリズムは、(目に見えない)テストシーケンスで最先端の処理を行う。
論文 参考訳(メタデータ) (2020-02-25T08:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。