論文の概要: CoPR: Towards Accurate Visual Localization With Continuous
Place-descriptor Regression
- arxiv url: http://arxiv.org/abs/2304.07426v1
- Date: Fri, 14 Apr 2023 23:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:11:37.629898
- Title: CoPR: Towards Accurate Visual Localization With Continuous
Place-descriptor Regression
- Title(参考訳): CoPR:continuous Place-descriptor Regressionによる正確なビジュアルローカライゼーションを目指す
- Authors: Mubariz Zaffar, Liangliang Nan, Julian Francisco Pieter Kooij
- Abstract要約: ビジュアルプレース認識(VPR)は、ジオタグ付き参照画像のマップから最も類似した参照画像を取得することにより、クエリ画像のカメラ位置を推定する。
VPRの参照は、地図内のスパースポーズでのみ利用可能であり、最大到達可能なローカライゼーション精度の上限を強制する。
本研究では,地図の高密度化とローカライズ精度の向上を図るために,CoPR(Continuous Place-Descriptor Regression)を提案する。
- 参考スコア(独自算出の注目度): 2.7393821783237184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Place Recognition (VPR) is an image-based localization method that
estimates the camera location of a query image by retrieving the most similar
reference image from a map of geo-tagged reference images. In this work, we
look into two fundamental bottlenecks for its localization accuracy: reference
map sparseness and viewpoint invariance. Firstly, the reference images for VPR
are only available at sparse poses in a map, which enforces an upper bound on
the maximum achievable localization accuracy through VPR. We therefore propose
Continuous Place-descriptor Regression (CoPR) to densify the map and improve
localization accuracy. We study various interpolation and extrapolation models
to regress additional VPR feature descriptors from only the existing
references. Secondly, we compare different feature encoders and show that CoPR
presents value for all of them. We evaluate our models on three existing public
datasets and report on average around 30% improvement in VPR-based localization
accuracy using CoPR, on top of the 15% increase by using a viewpoint-variant
loss for the feature encoder. The complementary relation between CoPR and
Relative Pose Estimation is also discussed.
- Abstract(参考訳): ビジュアルプレース認識(VPR)は、ジオタグ付き参照画像のマップから最も類似した参照画像を取得することで、クエリ画像のカメラ位置を推定する画像ベースのローカライズ手法である。
本研究では,その局所化精度の基本的なボトルネックとして,参照マップのスパースネスと視点不変性の2つを考察する。
まず、VPRの参照画像は、地図内のスパースポーズでのみ利用可能であり、VPRによる最大到達可能なローカライゼーション精度の上限を強制する。
そこで我々は,地図の高密度化と局所化精度の向上を図るために,CoPR(Continuous Place-Descriptor Regression)を提案する。
本稿では,既存の参照のみから付加的なVPR特徴記述子を回帰するために,様々な補間および外挿モデルについて検討する。
次に、異なる機能エンコーダを比較し、CoPRがそれらすべてに価値を示すことを示す。
我々は,既存の3つの公開データセット上でモデルを評価し,特徴エンコーダの視点変動損失を用いて,CoPRを用いたVPRベースのローカライゼーション精度を平均30%改善したことを報告した。
CoPRと相対ポース推定の相補的関係についても論じる。
関連論文リスト
- Close, But Not There: Boosting Geographic Distance Sensitivity in Visual Place Recognition [9.192660643226372]
我々は、現在のVPR埋め込みの地理的距離感度の制限が、トップk検索を誤ってソートする確率が高いことを定式化する。
我々は,視覚的に類似した画像のグラフから斜めをサンプリングすることにより,正および負の例を選択する新たなマイニング戦略であるCliqueMiningを提案する。
提案手法は,VPR埋め込みの感度を極小範囲で向上させ,関連するベンチマークの精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-07-02T16:49:01Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - NYC-Indoor-VPR: A Long-Term Indoor Visual Place Recognition Dataset with Semi-Automatic Annotation [7.037667953803237]
本稿では、ニューヨーク市内の13の異なる混雑したシーンから収集された36,000枚以上の画像のユニークで豊富なコレクションであるNYC-Indoor-VPRデータセットを紹介する。
VPRのための基礎的真理を確立するために,各画像の位置情報を計算する半自動アノテーション手法を提案する。
提案手法は,ビデオのペアを入力とし,一致した画像のペアと推定された相対位置を出力する。
論文 参考訳(メタデータ) (2024-03-31T00:20:53Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - CPR++: Object Localization via Single Coarse Point Supervision [55.8671776333499]
粗い点修正(CPR)は、アルゴリズムの観点からの意味的分散を緩和する最初の試みである。
CPRは、アノテートされた最初のポイントを置き換えるために、近隣地域のセマンティックセンターポイントを選択することで意味のばらつきを減らす。
CPR++は、スケール情報を取得し、グローバル領域における意味的分散をさらに低減することができる。
論文 参考訳(メタデータ) (2024-01-30T17:38:48Z) - $R^{2}$Former: Unified $R$etrieval and $R$eranking Transformer for Place
Recognition [92.56937383283397]
検索と再ランクの両方を扱う統合された場所認識フレームワークを提案する。
提案モジュールは特徴相関,注目値,xy座標を考慮に入れている。
R2$Formerは、主要なVPRデータセットの最先端メソッドを著しく上回る。
論文 参考訳(メタデータ) (2023-04-06T23:19:32Z) - Data-efficient Large Scale Place Recognition with Graded Similarity
Supervision [10.117451511942267]
視覚的位置認識(VPR)はコンピュータビジョンの基本課題である。
既存の方法は、同じ場所を表すか、そうでないイメージペアを使って訓練される。
VPRデータセットを再ラベルするための自動再アノテーション戦略をデプロイする。
コントラストネットワークのトレーニングに,グレード付き類似性ラベルを用いた新しい一般化コントラスト損失(GCL)を提案する。
論文 参考訳(メタデータ) (2023-03-21T10:56:57Z) - Learning to Localize in Unseen Scenes with Relative Pose Regressors [5.672132510411465]
相対的なポーズ回帰器(RPR)は、相対的な翻訳と回転をポーズラベル付き参照に推定することで、カメラをローカライズする。
しかし実際には、RPRのパフォーマンスは目に見えない場面で著しく劣化している。
我々は、結合、投影、注意操作(Transformer)によるアグリゲーションを実装し、結果として生じる潜在コードから相対的なポーズパラメータを回帰することを学ぶ。
現状のRCPと比較すると、室内および屋外のベンチマークにおいて、表示シーンにおける競合性能を維持しながら、見えない環境において、より優れたローカライズが期待できる。
論文 参考訳(メタデータ) (2023-03-05T17:12:50Z) - ImPosIng: Implicit Pose Encoding for Efficient Camera Pose Estimation [2.6808541153140077]
暗黙の詩。
(ImPosing)はイメージとカメラのポーズを2つの別々のニューラルネットワークで共通の潜在表現に埋め込む。
階層的な方法で潜在空間を通して候補を評価することにより、カメラの位置と向きを直接回帰するのではなく、洗練する。
論文 参考訳(メタデータ) (2022-05-05T13:33:25Z) - On the Limits of Pseudo Ground Truth in Visual Camera Re-localisation [83.29404673257328]
再ローカライゼーションベンチマークは、各メソッドが参照アルゴリズムの結果をいかにうまく再現するかを測定する。
このことは、参照アルゴリズムの選択がある種の再ローカライゼーション手法を好むかどうかを問うものである。
本稿では、広く使われている2つの再ローカライゼーションデータセットを分析し、参照アルゴリズムの選択によって評価結果が実際に異なることを示す。
論文 参考訳(メタデータ) (2021-09-01T12:01:08Z) - Graph-PCNN: Two Stage Human Pose Estimation with Graph Pose Refinement [54.29252286561449]
グラフPCNNと呼ばれる2段階のグラフベースおよびモデルに依存しないフレームワークを提案する。
第1段階では、粗局化結果を得るために熱マップ回帰ネットワークを適用し、ガイドポイントと呼ばれる一連の提案キーポイントをサンプリングする。
第2段階では、各案内点について、ローカライゼーションにより異なる視覚特徴を抽出する。
ガイドされた点間の関係は、より正確なローカライゼーション結果を得るためにグラフポーズ精製モジュールによって探索される。
論文 参考訳(メタデータ) (2020-07-21T04:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。