論文の概要: NocPlace: Nocturnal Visual Place Recognition Using Generative and
Inherited Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2402.17159v1
- Date: Tue, 27 Feb 2024 02:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:03:26.001402
- Title: NocPlace: Nocturnal Visual Place Recognition Using Generative and
Inherited Knowledge Transfer
- Title(参考訳): NocPlace: 生成的および継承的知識伝達を用いた夜間視覚的位置認識
- Authors: Bingxi Liu, Yiqun Wang, Huaqi Tao, Tingjun Huang, Fulin Tang, Yihong
Wu, Jinqiang Cui and Hong Zhang
- Abstract要約: 視覚的位置認識(VPR)はコンピュータビジョンにおいて重要であり、既知の画像の広範なコレクションからクエリ画像に似たデータベースイメージを取得することを目的としている。
VPRは、単にナイトタイムドメインの問題ではなく、ナイト・ツー・デイのドメイン横断の問題に対処する必要がある。
我々は、大規模で多視点の夜間VPRデータセットを利用して、学習したグローバルディスクリプタに、ダズリングライトと極暗光に対するレジリエンスを埋め込むNocPlaceを提案する。
- 参考スコア(独自算出の注目度): 11.68565695465447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual Place Recognition (VPR) is crucial in computer vision, aiming to
retrieve database images similar to a query image from an extensive collection
of known images. However, like many vision-related tasks, learning-based VPR
often experiences a decline in performance during nighttime due to the scarcity
of nighttime images. Specifically, VPR needs to address the cross-domain
problem of night-to-day rather than just the issue of a single nighttime
domain. In response to these issues, we present NocPlace, which leverages a
generated large-scale, multi-view, nighttime VPR dataset to embed resilience
against dazzling lights and extreme darkness in the learned global descriptor.
Firstly, we establish a day-night urban scene dataset called NightCities,
capturing diverse nighttime scenarios and lighting variations across 60 cities
globally. Following this, an unpaired image-to-image translation network is
trained on this dataset. Using this trained translation network, we process an
existing VPR dataset, thereby obtaining its nighttime version. The NocPlace is
then fine-tuned using night-style images, the original labels, and descriptors
inherited from the Daytime VPR model. Comprehensive experiments on various
nighttime VPR test sets reveal that NocPlace considerably surpasses previous
state-of-the-art methods.
- Abstract(参考訳): 視覚的位置認識(VPR)はコンピュータビジョンにおいて重要であり、既知の画像の広範なコレクションからクエリ画像に似たデータベースイメージを取得することを目的としている。
しかしながら、多くの視覚関連タスクと同様に、学習ベースのVPRは夜間画像の不足により夜間にパフォーマンスが低下することが多い。
具体的には、VPRは単一の夜間ドメインの問題ではなく、夜間のドメイン間の問題に対処する必要がある。
これらの問題に対応するため、我々は、大規模で多視点の夜間VPRデータセットを利用して、学習したグローバルディスクリプタに、ダズリングライトと極暗光に対するレジリエンスを埋め込むNocPlaceを提案する。
まず、NightCitiesと呼ばれる日夜の都市シーンデータセットを構築し、世界中の60都市で多様な夜間シナリオと照明のバリエーションを収集します。
その後、このデータセット上で、画像対画像翻訳ネットワークを訓練する。
この訓練された翻訳ネットワークを用いて既存のvprデータセットを処理し、夜間版を得る。
NocPlaceはナイトスタイルのイメージ、オリジナルのラベル、デイタイムVPRモデルから継承されたディスクリプタを使って微調整される。
様々な夜間VPRテストセットに関する総合的な実験により、NocPlaceが従来の最先端手法をかなり上回っていることが判明した。
関連論文リスト
- Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - PIG: Prompt Images Guidance for Night-Time Scene Parsing [48.35991796324741]
非教師なし領域適応(UDA)が夜景の研究の主流となっている。
そこで我々はNFNet(Night-Focused Network)を提案する。
NightCity、NightCity+、Dark Zurich、ACDCの4つのナイトタイムデータセットで実験を行いました。
論文 参考訳(メタデータ) (2024-06-15T07:06:19Z) - Similarity Min-Max: Zero-Shot Day-Night Domain Adaptation [52.923298434948606]
低照度条件は人間の視覚経験を妨げるだけでなく、下流の視覚タスクにおけるモデルの性能を低下させる。
この論文は、境界適用性、すなわちゼロショットの昼夜ドメイン適応に関するより複雑なシナリオに挑戦する。
我々は、それらを統一された枠組みで考える類似性 min-max パラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-17T18:50:15Z) - Disentangled Contrastive Image Translation for Nighttime Surveillance [87.03178320662592]
夜間監視は、照明の悪さと厳しい人間のアノテーションによる劣化に悩まされる。
既存の手法では、暗黒の物体を知覚するためにマルチスペクトル画像が使われており、解像度の低さと色の不在に悩まされている。
夜間監視の究極の解決策は、夜から昼までの翻訳(Night2Day)である、と私たちは主張する。
本論文は、夜間監視研究を支援する6つのシーンを含む、NightSuRと呼ばれる新しい監視データセットに貢献する。
論文 参考訳(メタデータ) (2023-07-11T06:40:27Z) - NPR: Nocturnal Place Recognition in Streets [15.778129994700496]
我々は、視覚的位置認識(VPR)を分割し、夜間位置認識(NPR)を克服する新しいパイプラインを提案する。
具体的には、最初にストリートレベルの昼夜データセット、NightStreetを構築し、未ペア画像から画像への翻訳モデルのトレーニングに使用しました。
そして、このモデルを使って既存の大規模VPRデータセットを処理し、VPR-Nightデータセットを生成し、それらを2つの人気のあるVPRパイプラインと組み合わせる方法について実証した。
論文 参考訳(メタデータ) (2023-04-01T09:43:58Z) - Boosting Night-time Scene Parsing with Learnable Frequency [53.05778451012621]
NTSP(Night-Time Scene Parsing)は多くの視覚アプリケーション、特に自律運転に必須である。
既存の手法のほとんどは日中シーン解析のために提案されている。
提案手法は,NightCity,NightCity+およびBDD100K-nightデータセットの最先端手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-08-30T13:09:59Z) - Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation [17.066753214406525]
本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
論文 参考訳(メタデータ) (2021-08-17T13:52:19Z) - DANNet: A One-Stage Domain Adaptation Network for Unsupervised Nighttime
Semantic Segmentation [18.43890050736093]
夜間セマンティックセグメンテーションのための新しいドメイン適応ネットワーク(DANNet)を提案する。
ラベル付きデイタイムデータセットとラベルなしデータセットを備えた敵対的なトレーニングを採用している。
本手法は,夜間セマンティックセグメンテーションにおける最新性能を実現する。
論文 参考訳(メタデータ) (2021-04-22T02:49:28Z) - Night-time Scene Parsing with a Large Real Dataset [67.11211537439152]
我々は,夜間シーン解析(NTSP)の問題に対処することを目指しており,主な課題が2つある。
夜間データの不足に対処するため、実夜間画像4,297枚からなる新しいラベル付きデータセット、NightCityを収集した。
また,NTSP問題に対処するための露出認識フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T18:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。