論文の概要: Triplet Contrastive Learning for Unsupervised Vehicle Re-identification
- arxiv url: http://arxiv.org/abs/2301.09498v1
- Date: Mon, 23 Jan 2023 15:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 13:17:04.308512
- Title: Triplet Contrastive Learning for Unsupervised Vehicle Re-identification
- Title(参考訳): 教師なし車両再識別のためのトリプルトコントラスト学習
- Authors: Fei Shen, Xiaoyu Du, Liyan Zhang, Jinhui Tang
- Abstract要約: 部分的特徴学習は、車両の再識別におけるセマンティック理解にとって重要な技術である。
本稿では,クラスタ機能を活用したTCL(Triplet Contrastive Learning framework)を提案する。
- 参考スコア(独自算出の注目度): 55.445358749042384
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Part feature learning is a critical technology for finegrained semantic
understanding in vehicle re-identification. However, recent unsupervised
re-identification works exhibit serious gradient collapse issues when directly
modeling the part features and global features. To address this problem, in
this paper, we propose a novel Triplet Contrastive Learning framework (TCL)
which leverages cluster features to bridge the part features and global
features. Specifically, TCL devises three memory banks to store the features
according to their attributes and proposes a proxy contrastive loss (PCL) to
make contrastive learning between adjacent memory banks, thus presenting the
associations between the part and global features as a transition of the
partcluster and cluster-global associations. Since the cluster memory bank
deals with all the instance features, it can summarize them into a
discriminative feature representation. To deeply exploit the instance
information, TCL proposes two additional loss functions. For the inter-class
instance, a hybrid contrastive loss (HCL) re-defines the sample correlations by
approaching the positive cluster features and leaving the all negative instance
features. For the intra-class instances, a weighted regularization cluster
contrastive loss (WRCCL) refines the pseudo labels by penalizing the mislabeled
images according to the instance similarity. Extensive experiments show that
TCL outperforms many state-of-the-art unsupervised vehicle re-identification
approaches. The code will be available at https://github.com/muzishen/TCL.
- Abstract(参考訳): 部分的特徴学習は、車両の再識別における微粒な意味理解のための重要な技術である。
しかしながら、最近の教師なし再同定作業は、部分的特徴とグローバルな特徴を直接モデル化する場合、深刻な勾配崩壊問題を示す。
本稿では,この問題を解決するために,クラスタ機能を活用した新しい三重項コントラスト学習フレームワーク(tcl)を提案する。
特にTCLは, 特徴量に応じて特徴量を保存するために3つのメモリバンクを考案し, 隣接メモリバンク間のコントラスト学習を代行するプロキシコントラスト損失(PCL)を提案し, パートクラスタとクラスタ・グローバル・アソシエーションの遷移として, 部分特徴とグローバル特徴の関連性を示す。
クラスタメモリバンクはすべてのインスタンス機能を扱うため、それらを識別的な特徴表現にまとめることができる。
インスタンス情報を深く活用するために、tclは2つの追加の損失関数を提案する。
クラス間インスタンスの場合、ハイブリッドコントラスト損失(HCL)は、正のクラスタ特徴に近づき、すべての負のインスタンス特徴を残してサンプル相関を再定義する。
クラス内インスタンスでは、重み付き正規化クラスタコントラスト損失(wrccl)が、インスタンスの類似性に応じて誤ってラベルされた画像をペナルティ化することにより擬似ラベルを洗練する。
広範な実験により、tclは多くの最先端の未監視車両再識別アプローチを上回っていることが示された。
コードはhttps://github.com/muzishen/TCLで入手できる。
関連論文リスト
- Self-Calibrated CLIP for Training-Free Open-Vocabulary Segmentation [19.749490092520006]
Self-Calibrated CLIP (SC-CLIP) は、CLIPを校正してより微細な言語表現を生成する訓練不要の手法である。
SC-CLIPはバニラCLIP ViT-L/14の性能を6.8倍向上させる。
論文 参考訳(メタデータ) (2024-11-24T15:14:05Z) - Learning Label Hierarchy with Supervised Contrastive Learning [8.488965459026678]
教師付きコントラスト学習(SCL)フレームワークは、各クラスを独立したものとして扱うため、すべてのクラスが等しく重要であるとみなす。
本稿では,クラス間の類似性を利用して階層情報をSCLに組み込んだラベル認識型SCL手法(LASCL)のファミリーを紹介する。
3つのデータセットに対する実験により、提案したLASCLは、複数ラベルの1つのラベルを区別するテキスト分類にうまく機能することが示された。
論文 参考訳(メタデータ) (2024-01-31T23:21:40Z) - Dual Cluster Contrastive learning for Person Re-Identification [78.42770787790532]
私たちはDual Cluster Contrastive Learning(DCC)という統合クラスタコントラストフレームワークを定式化します。
DCCは、個々のメモリバンクとセントロイドクラスタメモリバンクの2種類のメモリバンクを維持している。
教師なしまたは監督されていない人物のReIDに容易に適用できる。
論文 参考訳(メタデータ) (2021-12-09T02:43:25Z) - Mind Your Clever Neighbours: Unsupervised Person Re-identification via
Adaptive Clustering Relationship Modeling [19.532602887109668]
教師なし人物再識別(Re-ID)は、教師付きRe-IDモデルのスケーラビリティ問題を解決する可能性から注目されている。
既存の教師なし手法の多くは反復的なクラスタリング機構を採用しており、教師なしクラスタリングによって生成された擬似ラベルに基づいてネットワークを訓練している。
高品質な擬似ラベルを生成し,クラスタリングエラーの影響を軽減するために,教師なしのRe-IDのための新しいクラスタリング関係モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T10:55:07Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。