論文の概要: CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation
- arxiv url: http://arxiv.org/abs/2402.14454v1
- Date: Thu, 22 Feb 2024 11:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 15:34:51.500420
- Title: CCPA: Long-term Person Re-Identification via Contrastive Clothing and
Pose Augmentation
- Title(参考訳): CCPA(Contrastive Clothing and Pose Augmentation)による長期人物再同定
- Authors: Vuong D. Nguyen and Shishir K. Shah
- Abstract要約: 長期の人物再同定は、長期にわたるカメラ間で個人をマッチングすることを目的としている。
我々は,LRe-IDのためのコントラスト的衣服とポース拡張フレームワークであるCCPAを提案する。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-term Person Re-Identification (LRe-ID) aims at matching an individual
across cameras after a long period of time, presenting variations in clothing,
pose, and viewpoint. In this work, we propose CCPA: Contrastive Clothing and
Pose Augmentation framework for LRe-ID. Beyond appearance, CCPA captures body
shape information which is cloth-invariant using a Relation Graph Attention
Network. Training a robust LRe-ID model requires a wide range of clothing
variations and expensive cloth labeling, which is lacked in current LRe-ID
datasets. To address this, we perform clothing and pose transfer across
identities to generate images of more clothing variations and of different
persons wearing similar clothing. The augmented batch of images serve as inputs
to our proposed Fine-grained Contrastive Losses, which not only supervise the
Re-ID model to learn discriminative person embeddings under long-term scenarios
but also ensure in-distribution data generation. Results on LRe-ID datasets
demonstrate the effectiveness of our CCPA framework.
- Abstract(参考訳): 長期人物再識別(LRe-ID)は、長期にわたるカメラ間で個人をマッチングし、衣服、ポーズ、視点のバリエーションを提示することを目的としている。
本稿では,lre-idのコントラスト服とポーズ強化フレームワークであるccpaを提案する。
外観以外にも、ccpaは関係グラフアテンションネットワークを用いて布不変な身体形状情報をキャプチャする。
堅牢なLRe-IDモデルをトレーニングするには、さまざまな服のバリエーションと高価な布のラベルが必要だ。
これに対処するため、私たちは衣服と身元を移動して、より多くの衣服のバリエーションや、似たような服を着ている異なる人の画像を生成する。
拡張された画像のバッチは,提案する細粒度のコントラスト損失に対する入力として機能する。re-idモデルを監督することで,長期的シナリオ下での差別的人物埋め込みを学習するだけでなく,分散データ生成を確実にする。
LRe-IDデータセットの結果は,CCPAフレームワークの有効性を示す。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Semantic-aware Consistency Network for Cloth-changing Person
Re-Identification [8.885551377703944]
本稿ではセマンティック・アウェア・コンシスタンス・ネットワーク(SCNet)を紹介し,アイデンティティに関連するセマンティックな特徴を学習する。
衣服領域の画素を消去することにより,黒衣画像を生成する。
さらに、高レベルのアイデンティティ関連セマンティック特徴の学習を容易にするために、セマンティック一貫性損失を設計する。
論文 参考訳(メタデータ) (2023-08-27T14:07:57Z) - Unsupervised Long-Term Person Re-Identification with Clothes Change [46.54514001691254]
服装変化を伴う非監督的人物再識別(Re-ID)について検討した。
既存のre-idメソッドの多くは、すべての人の服が空間と時間にわたって静止していると人工的に仮定している。
本稿では,教師なしクラスタリング基準を適応的に制御できる新しいCPC手法を提案する。
論文 参考訳(メタデータ) (2022-02-07T11:55:23Z) - Cloth-Changing Person Re-identification from A Single Image with Gait
Prediction and Regularization [65.50321170655225]
本稿では,画像レイドモデルを用いて布非依存表現を学習するための補助タスクとして,歩行認識を導入する。
画像ベースのCloth-Changing ReIDベンチマーク(例えば、LTCC、PRCC、Real28、VC-Clothes)の実験は、GI-ReIDが最先端技術に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2021-03-29T12:10:50Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - Learning Shape Representations for Clothing Variations in Person
Re-Identification [34.559050607889816]
人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
論文 参考訳(メタデータ) (2020-03-16T17:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。