論文の概要: On Train-Test Class Overlap and Detection for Image Retrieval
- arxiv url: http://arxiv.org/abs/2404.01524v1
- Date: Mon, 1 Apr 2024 23:11:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-04-03 18:27:47.642471
- Title: On Train-Test Class Overlap and Detection for Image Retrieval
- Title(参考訳): 画像検索のための列車試験クラスオーバーラップと検出について
- Authors: Chull Hwan Song, Jooyoung Yoon, Taebaek Hwang, Shunghyun Choi, Yeong Hyeon Gu, Yannis Avrithis,
- Abstract要約: 私たちは、Revisited OxfordとParisでクラスオーバーラップを特定し、削除することで、最も人気のあるトレーニングセットであるGoogle Landmarks v2をクリーンにします。
興味のある対象を検出し、グローバルな画像表現を抽出するエンドツーエンドの単一ステージパイプラインであるSingle-stage Detect-to-Retrieve (CiDeR)を紹介した。
- 参考スコア(独自算出の注目度): 10.224082851755108
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: How important is it for training and evaluation sets to not have class overlap in image retrieval? We revisit Google Landmarks v2 clean, the most popular training set, by identifying and removing class overlap with Revisited Oxford and Paris [34], the most popular evaluation set. By comparing the original and the new RGLDv2-clean on a benchmark of reproduced state-of-the-art methods, our findings are striking. Not only is there a dramatic drop in performance, but it is inconsistent across methods, changing the ranking.What does it take to focus on objects or interest and ignore background clutter when indexing? Do we need to train an object detector and the representation separately? Do we need location supervision? We introduce Single-stage Detect-to-Retrieve (CiDeR), an end-to-end, single-stage pipeline to detect objects of interest and extract a global image representation. We outperform previous state-of-the-art on both existing training sets and the new RGLDv2-clean. Our dataset is available at https://github.com/dealicious-inc/RGLDv2-clean.
- Abstract(参考訳): 画像検索におけるクラスオーバーラップを行わないトレーニングと評価セットはどの程度重要か?
私たちは、最も人気のあるトレーニングセットであるGoogle Landmarks v2 cleanを再検討し、最も人気のある評価セットであるRevisited OxfordとParis[34]でクラスオーバーラップを特定し削除します。
RGLDv2-cleanとRGLDv2-cleanを比較した。
パフォーマンスが劇的に低下するだけでなく、メソッド間で一貫性がなく、ランクを変更します。オブジェクトや関心に集中し、インデックス付け時にバックグラウンドの混乱を無視するには、何が必要でしょうか?
オブジェクト検出器と表現を別々にトレーニングする必要がありますか?
位置監視は必要か?
興味のある対象を検出し、グローバルな画像表現を抽出するエンドツーエンドの単一ステージパイプラインであるSingle-stage Detect-to-Retrieve (CiDeR)を紹介した。
既存のトレーニングセットと新しいRGLDv2クリーンの両方において、これまでの最先端よりも優れています。
私たちのデータセットはhttps://github.com/dealicious-inc/RGLDv2-cleanで公開されています。
関連論文リスト
- Negative Frames Matter in Egocentric Visual Query 2D Localization [119.23191388798921]
最近リリースされたEgo4Dデータセットとベンチマークは、一人称視覚知覚データを大幅にスケールし、多様化している。
Visual Queries 2Dローカライゼーションタスクは、1対1の視点で記録された過去に存在するオブジェクトを検索することを目的としている。
本研究は,Epsodic Memoryベンチマークで導入された3段階ベースラインに基づく。
論文 参考訳(メタデータ) (2022-08-03T09:54:51Z) - Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval [73.3152060987961]
現在の教師付きクロスドメイン画像検索法は優れた性能が得られる。
データ収集とラベリングのコストは、実際のアプリケーションにおける実践的なデプロイにおいて、難易度の高い障壁を課します。
本稿では,クラス意味認識機能抽出を支援するために,クラスタ単位のコントラスト学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-20T07:52:14Z) - Learning Super-Features for Image Retrieval [34.22539650643026]
我々は,スーパーフィーチャーと呼ばれる中級機能のみをベースとした,深層画像検索のための新しいアーキテクチャを提案する。
一般的なランドマーク検索ベンチマークの実験では、Super-featuresは同じ数の機能を使用する場合、最先端の手法よりも大幅に優れていることが検証されている。
論文 参考訳(メタデータ) (2022-01-31T12:48:42Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。