論文の概要: CCUP: A Controllable Synthetic Data Generation Pipeline for Pretraining Cloth-Changing Person Re-Identification Models
- arxiv url: http://arxiv.org/abs/2410.13567v1
- Date: Thu, 17 Oct 2024 14:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:21:27.342488
- Title: CCUP: A Controllable Synthetic Data Generation Pipeline for Pretraining Cloth-Changing Person Re-Identification Models
- Title(参考訳): CCUP: 衣服交換者再識別モデルの事前学習のための制御可能な合成データ生成パイプライン
- Authors: Yujian Zhao, Chengru Wu, Yinong Xu, Xuanzheng Du, Ruiyu Li, Guanglin Niu,
- Abstract要約: 衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要かつ困難な研究課題である。
CC-ReIDデータの構築コストが高いため、既存のデータ駆動モデルは、限られたデータで効率的にトレーニングするのは難しい。
制御可能かつ高品質な合成データを生成するための低コストで効率的なパイプラインを提案する。
- 参考スコア(独自算出の注目度): 6.892813084970311
- License:
- Abstract: Cloth-changing person re-identification (CC-ReID), also known as Long-Term Person Re-Identification (LT-ReID) is a critical and challenging research topic in computer vision that has recently garnered significant attention. However, due to the high cost of constructing CC-ReID data, the existing data-driven models are hard to train efficiently on limited data, causing overfitting issue. To address this challenge, we propose a low-cost and efficient pipeline for generating controllable and high-quality synthetic data simulating the surveillance of real scenarios specific to the CC-ReID task. Particularly, we construct a new self-annotated CC-ReID dataset named Cloth-Changing Unreal Person (CCUP), containing 6,000 IDs, 1,179,976 images, 100 cameras, and 26.5 outfits per individual. Based on this large-scale dataset, we introduce an effective and scalable pretrain-finetune framework for enhancing the generalization capabilities of the traditional CC-ReID models. The extensive experiments demonstrate that two typical models namely TransReID and FIRe^2, when integrated into our framework, outperform other state-of-the-art models after pretraining on CCUP and finetuning on the benchmarks such as PRCC, VC-Clothes and NKUP. The CCUP is available at: https://github.com/yjzhao1019/CCUP.
- Abstract(参考訳): 長期人物再識別(Long-Term Person Re-Identification、LT-ReID)はコンピュータビジョンにおいて重要かつ困難な研究テーマであり、近年注目されている。
しかし、CC-ReIDデータの構築コストが高いため、既存のデータ駆動モデルは限られたデータで効率的にトレーニングすることが困難であり、過度な問題を引き起こしている。
この課題に対処するために,CC-ReIDタスクに特有の実シナリオの監視をシミュレートする,制御可能で高品質な合成データを生成するための,低コストで効率的なパイプラインを提案する。
特に、6000のID、1,179,976枚の画像、100台のカメラ、26.5枚の衣装を含むCC-ReIDデータセットを新たに構築した。
この大規模データセットに基づいて、従来のCC-ReIDモデルの一般化能力を高めるために、効果的でスケーラブルなプレトレイン・ファインチューンフレームワークを導入する。
大規模な実験により、TransReIDとFIRe^2という2つの典型的なモデルが我々のフレームワークに統合された場合、CCUPの事前トレーニングやPRCC、VC-Clothes、NKUPなどのベンチマークの微調整により、他の最先端モデルよりも優れていることが示された。
CCUP は以下の https://github.com/yjzhao1019/CCUP で利用可能である。
関連論文リスト
- On Feature Decorrelation in Cloth-Changing Person Re-identification [32.27835236681253]
衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要な課題である。
従来の方法では、複数のモダリティデータを統合するか、手動でアノテートされた衣料ラベルを使用する。
本稿では,密度比推定に基づく新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T22:25:37Z) - CCDM: Continuous Conditional Diffusion Models for Image Generation [22.70942688582302]
連続条件生成モデリング(CCGM)は、スカラー連続変数に基づく高次元データ(典型的には画像)の分布を推定することを目的としている。
既存のConditional Adversarial Networks (CcGANs) は、当初、このタスクのために設計されていたが、その逆のトレーニングメカニズムは、非常にスパースなデータや不均衡なデータに対して脆弱なままである。
生成画像の品質を高めるために、CcGANを条件拡散モデル(CDM)に置き換えることが有望な方法である。
論文 参考訳(メタデータ) (2024-05-06T15:10:19Z) - OC4-ReID: Occluded Cloth-Changing Person Re-Identification [8.054546048450414]
Occluded Cloth-Changing Person Re-Identification (OC4-ReID)は、服が変わったときに特定の歩行者を回収する新しい方法である。
OC4-ReIDは衣服の変化と閉塞の2つの課題に同時に対処する。
提案したデータセットおよび2つのCC-ReIDベンチマークデータセットに関する総合的な実験は、提案手法の他の最先端手法に対する優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-13T14:08:45Z) - Contrastive Multiple Instance Learning for Weakly Supervised Person ReID [50.04900262181093]
本稿では、より効果的に教師付きされたReIDに適した新しいフレームワークであるContrastive Multiple Instance Learning (CMIL)を紹介する。
CMILは、対照的な損失を生かしながら、単一のモデルと擬似ラベルを必要とせず、自分自身を区別する。
PerformancePhoto.coの実際のアプリケーションから自然に発生する弱いラベルを特徴とするMUDDデータセットの拡張であるWL-MUDDデータセットをリリースする。
論文 参考訳(メタデータ) (2024-02-12T14:48:31Z) - How Realistic Is Your Synthetic Data? Constraining Deep Generative
Models for Tabular Data [57.97035325253996]
本稿では,制約付き深部生成モデル(C-DGM)をリアルな合成データモデルに変換する方法について述べる。
C-DGMは、制約によって表現される背景知識を活用して、標準知識より優れている。
論文 参考訳(メタデータ) (2024-02-07T13:22:05Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Exposing Shallow Heuristics of Relation Extraction Models with Challenge
Data [49.378860065474875]
我々は、TACREDで訓練されたSOTA関係抽出(RE)モデルの故障モードを同定する。
トレーニングの例として、いくつかの課題データを追加することで、モデルのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-10-07T21:17:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。