論文の概要: Learning Deep Representations via Contrastive Learning for Instance
Retrieval
- arxiv url: http://arxiv.org/abs/2209.13832v1
- Date: Wed, 28 Sep 2022 04:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:19:07.146047
- Title: Learning Deep Representations via Contrastive Learning for Instance
Retrieval
- Title(参考訳): インスタンス検索のためのコントラスト学習による深層表現学習
- Authors: Tao Wu, Tie Luo, Donald Wunsch
- Abstract要約: 本稿では、インスタンス識別に基づくコントラスト学習(CL)を用いて、この問題に取り組むための最初の試みを行う。
本研究では、事前学習されたCLモデルと微調整されたCLモデルから識別表現を導出する能力を探求することにより、この問題に対処する。
- 参考スコア(独自算出の注目度): 11.736450745549792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance-level Image Retrieval (IIR), or simply Instance Retrieval, deals
with the problem of finding all the images within an dataset that contain a
query instance (e.g. an object). This paper makes the first attempt that
tackles this problem using instance-discrimination based contrastive learning
(CL). While CL has shown impressive performance for many computer vision tasks,
the similar success has never been found in the field of IIR. In this work, we
approach this problem by exploring the capability of deriving discriminative
representations from pre-trained and fine-tuned CL models. To begin with, we
investigate the efficacy of transfer learning in IIR, by comparing
off-the-shelf features learned by a pre-trained deep neural network (DNN)
classifier with features learned by a CL model. The findings inspired us to
propose a new training strategy that optimizes CL towards learning IIR-oriented
features, by using an Average Precision (AP) loss together with a fine-tuning
method to learn contrastive feature representations that are tailored to IIR.
Our empirical evaluation demonstrates significant performance enhancement over
the off-the-shelf features learned from a pre-trained DNN classifier on the
challenging Oxford and Paris datasets.
- Abstract(参考訳): インスタンスレベルのイメージ検索(iir)、あるいは単にインスタンス検索は、クエリインスタンス(例えばオブジェクト)を含むデータセット内のすべてのイメージを見つける問題に対処する。
本稿では,インスタンス識別に基づくコントラスト学習(cl)を用いて,この問題に取り組む最初の試みを行う。
CLは多くのコンピュータビジョンタスクで顕著な性能を示したが、IIRの分野でも同様の成功は見つからなかった。
本研究では,事前学習されたclモデルと微調整されたclモデルから識別表現を導出する能力を検討することにより,この問題にアプローチする。
まず,プレトレーニングディープニューラルネットワーク(DNN)分類器で学習したオフザシェルフ特徴とCLモデルで学習した特徴とを比較して,IIRにおける伝達学習の有効性を検討する。
この結果から,平均精度(AP)損失と,IIRに適合した対照的な特徴表現を学習するための微調整手法を用いて,CLをIIR指向の特徴学習に最適化する新たなトレーニング戦略を提案することができた。
我々の経験的評価は、オックスフォードとパリのデータセット上で訓練済みのDNN分類器から得られたオフ・ザ・シェルフ機能に対する顕著な性能向上を示す。
関連論文リスト
- Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - REAL: Representation Enhanced Analytic Learning for Exemplar-free Class-incremental Learning [12.197327462627912]
EFCIL(Exemplar-free class-incremental Learning)のための表現強化分析学習(REAL)を提案する。
REALは、二重ストリームベース事前訓練(DS-BPT)および表現強化蒸留(RED)プロセスを構築し、抽出器の表現を強化する。
本手法は,既存のALベースCILの凍結バックボーンによって引き起こされる未確認データの表現において,識別性が不十分な問題に対処する。
論文 参考訳(メタデータ) (2024-03-20T11:48:10Z) - Prototypical Contrastive Learning-based CLIP Fine-tuning for Object
Re-identification [13.090873217313732]
本研究の目的は、オブジェクト再識別(Re-ID)の性能を高めるために、コントラスト言語画像事前学習(CLIP)のような大規模事前学習型視覚言語モデルを適用することである。
私たちはまず,CLIP-ReIDにおけるロールプロンプト学習を分析し,その限界を同定する。
提案手法は,CLIPのイメージエンコーダを直接微調整し,プロトタイプ・コントラッシブ・ラーニング(PCL)の損失を低減し,即時学習の必要性を解消する。
論文 参考訳(メタデータ) (2023-10-26T08:12:53Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Foundational Models for Continual Learning: An Empirical Study of Latent
Replay [17.322679682451597]
本稿では,下流の連続学習シナリオの基礎として,事前学習型視覚モデルの有効性について検討する。
大規模ベンチマークシナリオにおける各種事前学習モデルの有効性を,潜時および生データ空間におけるバニラ再生設定と比較した。
論文 参考訳(メタデータ) (2022-04-30T19:11:37Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。