論文の概要: DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID
- arxiv url: http://arxiv.org/abs/2411.07205v1
- Date: Mon, 11 Nov 2024 18:28:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:08:59.859776
- Title: DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID
- Title(参考訳): DLCR: 衣服交換者Re-IDのための拡散による生成データ拡張フレームワーク
- Authors: Nyle Siddiqui, Florinel Alin Croitoru, Gaurav Kumar Nayak, Radu Tudor Ionescu, Mubarak Shah,
- Abstract要約: 本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
- 参考スコア(独自算出の注目度): 69.70281727931048
- License:
- Abstract: With the recent exhibited strength of generative diffusion models, an open research question is \textit{if images generated by these models can be used to learn better visual representations}. While this generative data expansion may suffice for easier visual tasks, we explore its efficacy on a more difficult discriminative task: clothes-changing person re-identification (CC-ReID). CC-ReID aims to match people appearing in non-overlapping cameras, even when they change their clothes across cameras. Not only are current CC-ReID models constrained by the limited diversity of clothing in current CC-ReID datasets, but generating additional data that retains important personal features for accurate identification is a current challenge. To address this issue we propose DLCR, a novel data expansion framework that leverages pre-trained diffusion and large language models (LLMs) to accurately generate diverse images of individuals in varied attire. We generate additional data for five benchmark CC-ReID datasets (PRCC, CCVID, LaST, VC-Clothes, and LTCC) and \textbf{increase their clothing diversity by \boldmath{$10$}x, totaling over \boldmath{$2.1$}M images generated}. DLCR employs diffusion-based text-guided inpainting, conditioned on clothing prompts constructed using LLMs, to generate synthetic data that only modifies a subject's clothes while preserving their personally identifiable features. With this massive increase in data, we introduce two novel strategies - progressive learning and test-time prediction refinement - that respectively reduce training time and further boosts CC-ReID performance. On the PRCC dataset, we obtain a large top-1 accuracy improvement of $11.3\%$ by training CAL, a previous state of the art (SOTA) method, with DLCR-generated data. We publicly release our code and generated data for each dataset here: \url{https://github.com/CroitoruAlin/dlcr}.
- Abstract(参考訳): 生成拡散モデルの最近の強みが示すように、オープンな研究課題は、これらのモデルによって生成された画像がより良い視覚表現を学習するために使用できることである。
この生成的データ拡張は、視覚的な作業を容易にするのに十分かもしれないが、より難しい識別的タスク、すなわち着替え人再識別(CC-ReID)において、その効果を探求する。
CC-ReIDは、カメラで服を変えたときでも、重複しないカメラに映る人々をマッチングすることを目的としている。
現在のCC-ReIDモデルは、現在のCC-ReIDデータセットの服の多様性に制限されているだけでなく、正確な識別のために重要な個人的特徴を保持する追加データを生成することが現在の課題である。
この問題を解決するために,事前学習した拡散と大規模言語モデル(LLM)を活用し,多様な服装の個人像を正確に生成する新しいデータ拡張フレームワークであるDLCRを提案する。
5つのベンチマークCC-ReIDデータセット(PRCC, CCVID, LaST, VC-Clothes, LTCC)の追加データを生成し, \textbf{increase their clothing diversity by \boldmath{$10$}x, totaling over \boldmath{$2.1$}M images generated}。
DLCRは拡散ベースのテキスト誘導塗装を採用し、LCMを用いて構築された衣服のプロンプトに条件付けし、個人が特定できる特徴を保存しながら、被写体の衣服だけを変更する合成データを生成する。
この膨大なデータの増加により、プログレッシブラーニングとテストタイム予測改善という2つの新しい戦略を導入し、それぞれトレーニング時間を短縮し、CC-ReIDのパフォーマンスをさらに向上させる。
PRCCデータセットでは,従来のSOTA(State-of-the-art)手法であるCALをDLCR生成データでトレーニングすることにより,11.3\%の大幅なトップ1精度向上が得られる。
コードを公開し、データセット毎に生成されたデータを以下に公開します。
関連論文リスト
- CCUP: A Controllable Synthetic Data Generation Pipeline for Pretraining Cloth-Changing Person Re-Identification Models [6.892813084970311]
衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要かつ困難な研究課題である。
CC-ReIDデータの構築コストが高いため、既存のデータ駆動モデルは、限られたデータで効率的にトレーニングするのは難しい。
制御可能かつ高品質な合成データを生成するための低コストで効率的なパイプラインを提案する。
論文 参考訳(メタデータ) (2024-10-17T14:04:02Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation [2.1756081703276]
長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:16:34Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features [11.189236254478057]
CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
論文 参考訳(メタデータ) (2022-11-24T21:41:52Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - Learning Shape Representations for Clothing Variations in Person
Re-Identification [34.559050607889816]
人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
論文 参考訳(メタデータ) (2020-03-16T17:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。