論文の概要: Adaptive Intra-Class Variation Contrastive Learning for Unsupervised Person Re-Identification
- arxiv url: http://arxiv.org/abs/2404.04665v1
- Date: Sat, 6 Apr 2024 15:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:09:57.358745
- Title: Adaptive Intra-Class Variation Contrastive Learning for Unsupervised Person Re-Identification
- Title(参考訳): 教師なし人物再同定のための適応型クラス内変動コントラスト学習
- Authors: Lingzhi Liu, Haiyang Zhang, Chengwei Tang, Tiantian Zhang,
- Abstract要約: AdaInCVと呼ばれる教師なしRe-IDのための適応型クラス内変動コントラスト学習アルゴリズムを提案する。
このアルゴリズムは,クラスタリング後のクラス内変動を考慮し,各クラスのモデルの学習能力を定量的に評価する。
より具体的には、Adaptive Sample Mining (AdaSaM)とAdaptive Outlier Filter (AdaOF)の2つの新しい戦略が提案されている。
- 参考スコア(独自算出の注目度): 10.180143197144803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The memory dictionary-based contrastive learning method has achieved remarkable results in the field of unsupervised person Re-ID. However, The method of updating memory based on all samples does not fully utilize the hardest sample to improve the generalization ability of the model, and the method based on hardest sample mining will inevitably introduce false-positive samples that are incorrectly clustered in the early stages of the model. Clustering-based methods usually discard a significant number of outliers, leading to the loss of valuable information. In order to address the issues mentioned before, we propose an adaptive intra-class variation contrastive learning algorithm for unsupervised Re-ID, called AdaInCV. And the algorithm quantitatively evaluates the learning ability of the model for each class by considering the intra-class variations after clustering, which helps in selecting appropriate samples during the training process of the model. To be more specific, two new strategies are proposed: Adaptive Sample Mining (AdaSaM) and Adaptive Outlier Filter (AdaOF). The first one gradually creates more reliable clusters to dynamically refine the memory, while the second can identify and filter out valuable outliers as negative samples.
- Abstract(参考訳): メモリ辞書に基づくコントラスト学習法は教師なしのRe-ID分野において顕著な成果を上げている。
しかし,全てのサンプルに基づいてメモリを更新する方法は,モデルの一般化能力を向上させるために最も難しいサンプルを十分に利用していないため,最強サンプルマイニングに基づく手法は,モデルの初期において誤ってクラスタ化されている偽陽性サンプルを必然的に導入する。
クラスタリングベースのメソッドは通常、かなりの数のアウトリーチを破棄し、貴重な情報が失われる。
これまでに述べた問題に対処するため、AdaInCVと呼ばれる教師なしRe-IDのための適応型クラス内変動コントラスト学習アルゴリズムを提案する。
また,クラスタリング後のクラス内変動を考慮し,各クラスの学習能力を定量的に評価し,モデルの学習過程における適切なサンプルの選択を支援する。
より具体的には、Adaptive Sample Mining (AdaSaM) とAdaptive Outlier Filter (AdaOF) の2つの新しい戦略が提案されている。
第1のクラスタは徐々に信頼性の高いクラスタを生成して動的にメモリを洗練させ、第2のクラスタは貴重なアウトリーチを負のサンプルとして識別し、フィルタリングすることができる。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Active anomaly detection based on deep one-class classification [9.904380236739398]
我々は,Deep SVDDにおけるアクティブラーニングの2つの重要な課題,すなわちクエリ戦略と半教師付きラーニング手法に対処する。
まず、単に異常を識別するのではなく、適応境界に従って不確実なサンプルを選択する。
第2に、ラベル付き正規データと異常データの両方を効果的に組み込むために、一級分類モデルの訓練にノイズコントラスト推定を適用した。
論文 参考訳(メタデータ) (2023-09-18T03:56:45Z) - Unsupervised Deep One-Class Classification with Adaptive Threshold based
on Training Dynamics [11.047949973156836]
疑似ラベル付き正規標本から正規性を学習する,教師なしの深層一階分類を提案する。
10個の異常検出ベンチマークによる実験結果から,本手法は大規模マージンによる異常検出性能を効果的に向上することが示された。
論文 参考訳(メタデータ) (2023-02-13T01:51:34Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。