論文の概要: Adversarial Learning of Hard Positives for Place Recognition
- arxiv url: http://arxiv.org/abs/2205.03871v1
- Date: Sun, 8 May 2022 13:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 15:47:05.186246
- Title: Adversarial Learning of Hard Positives for Place Recognition
- Title(参考訳): 場所認識のためのハードポジティブの逆学習
- Authors: Wenxuan Fang, Kai Zhang, Yoli Shavit and Wensen Feng
- Abstract要約: 本稿では,画像検索ネットワークをトレーニングするためのハードポジティクスの作成を指導する逆法を提案する。
提案手法は,Pitts250および東京24/7ベンチマークにおける最先端のリコールを実現する。
- 参考スコア(独自算出の注目度): 5.142439069733352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image retrieval methods for place recognition learn global image descriptors
that are used for fetching geo-tagged images at inference time. Recent works
have suggested employing weak and self-supervision for mining hard positives
and hard negatives in order to improve localization accuracy and robustness to
visibility changes (e.g. in illumination or view point). However, generating
hard positives, which is essential for obtaining robustness, is still limited
to hard-coded or global augmentations. In this work we propose an adversarial
method to guide the creation of hard positives for training image retrieval
networks. Our method learns local and global augmentation policies which will
increase the training loss, while the image retrieval network is forced to
learn more powerful features for discriminating increasingly difficult
examples. This approach allows the image retrieval network to generalize beyond
the hard examples presented in the data and learn features that are robust to a
wide range of variations. Our method achieves state-of-the-art recalls on the
Pitts250 and Tokyo 24/7 benchmarks and outperforms recent image retrieval
methods on the rOxford and rParis datasets by a noticeable margin.
- Abstract(参考訳): 位置認識のための画像検索手法は、ジオタグ付き画像を推論時にフェッチするために使用されるグローバル画像記述子を学習する。
近年の研究では、局所化精度と可視性の変化(照明や視点など)に対する堅牢性を改善するために、強い正と負の採掘に弱い自己超越を用いることが提案されている。
しかし、ロバスト性を得るために不可欠なハードポジティクスを生成することは、ハードコードやグローバル拡張に限られている。
本研究では,画像検索ネットワークをトレーニングするためのハードポジティクスの作成を指導する逆法を提案する。
本手法は,訓練損失を増大させる局所的およびグローバルな拡張ポリシーを学習し,画像検索ネットワークは,ますます困難な事例を識別するために,より強力な特徴を学習せざるを得ない。
このアプローチにより、画像検索ネットワークは、データに提示されるハードな例を超えて一般化し、幅広いバリエーションにロバストな特徴を学ぶことができる。
提案手法は,Pitts250および東京24/7ベンチマークにおける最先端のリコールを実現し,rOxfordおよびrParisデータセットにおける最近の画像検索手法を顕著なマージンで上回っている。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Specialized Re-Ranking: A Novel Retrieval-Verification Framework for
Cloth Changing Person Re-Identification [36.4001616893874]
Re-IDは通常のRe-IDや生体認証技術よりもセキュリティの高い複雑なシナリオで動作することができる。
類似画像を扱う新しい検索検証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-07T14:47:28Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Digging Into Self-Supervised Learning of Feature Descriptors [14.47046413243358]
強力な機能記述子に繋がる一連の改善を提案する。
強負の採鉱において, 対面内からバッチ内への探索空間の増大が一貫した改善をもたらすことを示す。
合成ホモグラフィ変換,色強調,フォトリアリスティック画像スタイリングの組み合わせが有用であることを示す。
論文 参考訳(メタデータ) (2021-10-10T12:22:44Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - Exploiting Web Images for Fine-Grained Visual Recognition by Eliminating
Noisy Samples and Utilizing Hard Ones [60.07027312916081]
トレーニング中に実世界のWeb画像から無関係なサンプルを除去するための新しいアプローチを提案します。
私達のアプローチはよりよい性能を達成するために無関係な騒々しいWebイメージおよび堅い例の有害な影響を緩和できます。
論文 参考訳(メタデータ) (2021-01-23T03:58:10Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Self-supervising Fine-grained Region Similarities for Large-scale Image
Localization [43.1611420685653]
一般のベンチマークでは、画像と画像の類似性を学ぶためのノイズの多いGPSラベルしか提供されていない。
本稿では,画像と領域の類似性を自己監督し,その部分領域とともに,困難な正のイメージの可能性について検討する。
提案する自己強調画像-領域類似性ラベルは,最先端パイプラインのトレーニングボトルネックを効果的に処理する。
論文 参考訳(メタデータ) (2020-06-06T17:31:52Z) - Learning Test-time Augmentation for Content-based Image Retrieval [42.188013259368766]
オフザシェルフ畳み込みニューラルネットワークは、多くの画像検索タスクにおいて優れた結果をもたらす。
既存の画像検索手法では、ターゲットデータ特有のバリエーションに適応するために、事前訓練されたネットワークを微調整または修正する必要がある。
本手法は, テスト時に強調した画像から抽出した特徴を, 強化学習を通じて学習したポリシーに則って集約することにより, 既製の特徴の分散を促進させる。
論文 参考訳(メタデータ) (2020-02-05T05:08:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。