論文の概要: NPR: Nocturnal Place Recognition in Streets
- arxiv url: http://arxiv.org/abs/2304.00276v2
- Date: Mon, 17 Apr 2023 16:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 20:27:20.291579
- Title: NPR: Nocturnal Place Recognition in Streets
- Title(参考訳): NPR:街路における夜間の場所認識
- Authors: Bingxi Liu, Yujie Fu, Feng Lu, Jinqiang Cui, Yihong Wu, Hong Zhang
- Abstract要約: 我々は、視覚的位置認識(VPR)を分割し、夜間位置認識(NPR)を克服する新しいパイプラインを提案する。
具体的には、最初にストリートレベルの昼夜データセット、NightStreetを構築し、未ペア画像から画像への翻訳モデルのトレーニングに使用しました。
そして、このモデルを使って既存の大規模VPRデータセットを処理し、VPR-Nightデータセットを生成し、それらを2つの人気のあるVPRパイプラインと組み合わせる方法について実証した。
- 参考スコア(独自算出の注目度): 15.778129994700496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Place Recognition (VPR) is the task of retrieving database images
similar to a query photo by comparing it to a large database of known images.
In real-world applications, extreme illumination changes caused by query images
taken at night pose a significant obstacle that VPR needs to overcome. However,
a training set with day-night correspondence for city-scale, street-level VPR
does not exist. To address this challenge, we propose a novel pipeline that
divides VPR and conquers Nocturnal Place Recognition (NPR). Specifically, we
first established a street-level day-night dataset, NightStreet, and used it to
train an unpaired image-to-image translation model. Then we used this model to
process existing large-scale VPR datasets to generate the VPR-Night datasets
and demonstrated how to combine them with two popular VPR pipelines. Finally,
we proposed a divide-and-conquer VPR framework and provided explanations at the
theoretical, experimental, and application levels. Under our framework,
previous methods can significantly improve performance on two public datasets,
including the top-ranked method.
- Abstract(参考訳): 視覚的位置認識(VPR)は、クエリ写真に似たデータベースイメージを既知の画像の大きなデータベースと比較することで検索するタスクである。
実世界のアプリケーションでは、夜のクエリ画像による極端な照明変更は、vprが克服しなければならない大きな障害となる。
しかし、街路レベルのVPRのための昼夜対応の訓練セットは存在しない。
この課題に対処するために,我々はvprを分割し,夜行位置認識(npr)を克服する新しいパイプラインを提案する。
具体的には、最初にストリートレベルの昼夜データセットNightStreetを構築し、未ペア画像から画像への翻訳モデルのトレーニングに使用しました。
そして、このモデルを使って既存の大規模VPRデータセットを処理し、VPR-Nightデータセットを生成し、それらを2つの人気のあるVPRパイプラインと組み合わせる方法について実証した。
最後にvprフレームワークを提案し,理論,実験,アプリケーションレベルでの説明を行った。
本フレームワークでは,上位の手法を含む2つの公開データセットのパフォーマンスを大幅に向上させることができる。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - PIG: Prompt Images Guidance for Night-Time Scene Parsing [48.35991796324741]
非教師なし領域適応(UDA)が夜景の研究の主流となっている。
そこで我々はNFNet(Night-Focused Network)を提案する。
NightCity、NightCity+、Dark Zurich、ACDCの4つのナイトタイムデータセットで実験を行いました。
論文 参考訳(メタデータ) (2024-06-15T07:06:19Z) - EffoVPR: Effective Foundation Model Utilization for Visual Place Recognition [6.996304653818122]
本稿では,視覚的位置認識のための基盤モデルの可能性を活用するための,シンプルながら強力なアプローチを提案する。
まず、自己注意層から抽出した機能が、VPRの強力なリランカとして機能することを実証する。
次に、内部のViT層をプールに利用した単一ステージの手法が、最先端の結果をもたらすグローバルな特徴を生み出すことを実証した。
論文 参考訳(メタデータ) (2024-05-28T11:24:41Z) - Collaborative Visual Place Recognition through Federated Learning [5.06570397863116]
視覚的位置認識(VPR)は、画像の位置を検索問題として扱うことで、画像の位置を推定することを目的としている。
VPRはジオタグ付き画像のデータベースを使用し、ディープニューラルネットワークを活用して、各画像からデクリプタと呼ばれるグローバル表現を抽出する。
本研究は,フェデレートラーニング(FL)のレンズを通してVPRの課題を再考し,この適応に関連するいくつかの重要な課題に対処する。
論文 参考訳(メタデータ) (2024-04-20T08:48:37Z) - NYC-Indoor-VPR: A Long-Term Indoor Visual Place Recognition Dataset with Semi-Automatic Annotation [7.037667953803237]
本稿では、ニューヨーク市内の13の異なる混雑したシーンから収集された36,000枚以上の画像のユニークで豊富なコレクションであるNYC-Indoor-VPRデータセットを紹介する。
VPRのための基礎的真理を確立するために,各画像の位置情報を計算する半自動アノテーション手法を提案する。
提案手法は,ビデオのペアを入力とし,一致した画像のペアと推定された相対位置を出力する。
論文 参考訳(メタデータ) (2024-03-31T00:20:53Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - NocPlace: Nocturnal Visual Place Recognition via Generative and Inherited Knowledge Transfer [11.203135595002978]
NocPlaceは、世界のディスクリプタに照らされた光と極暗に対するレジリエンスを埋め込む。
NocPlaceは、東京24/7ナイトで7.6%、SVOXナイトで16.8%向上している。
論文 参考訳(メタデータ) (2024-02-27T02:47:09Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Combining Attention Module and Pixel Shuffle for License Plate
Super-Resolution [3.8831062015253055]
本研究は,低解像度・低画質画像におけるライセンスプレート(LP)再構成に焦点を当てた。
本稿では、注目/変圧器モジュールの概念を拡張したシングルイメージ超解法(SISR)アプローチを提案する。
実験では, 提案手法は, 定量的および定性的に, ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-30T13:05:07Z) - Coarse-to-Fine Vision-Language Pre-training with Fusion in the Backbone [170.85076677740292]
本稿では、視覚言語(VL)事前学習のための新しいモデルアーキテクチャであるFIBER(Fusion-In-the-Backbone-basedER)を提案する。
ユニモーダルバックボーンの後に、専用のトランスフォーマー層を融合させる代わりに、FIBERはマルチモーダルフュージョンをモデルに深く押し込む。
我々は、VQA、画像キャプション、検索、フレーズグラウンド、参照表現理解、オブジェクト検出など、幅広いVLタスクに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2022-06-15T16:41:29Z) - Night-time Scene Parsing with a Large Real Dataset [67.11211537439152]
我々は,夜間シーン解析(NTSP)の問題に対処することを目指しており,主な課題が2つある。
夜間データの不足に対処するため、実夜間画像4,297枚からなる新しいラベル付きデータセット、NightCityを収集した。
また,NTSP問題に対処するための露出認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T18:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。