論文の概要: Clothes-Changing Person Re-identification with RGB Modality Only
- arxiv url: http://arxiv.org/abs/2204.06890v1
- Date: Thu, 14 Apr 2022 11:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 13:42:40.187545
- Title: Clothes-Changing Person Re-identification with RGB Modality Only
- Title(参考訳): RGBモダリティのみを用いた衣服交換者の再識別
- Authors: Xinqian Gu, Hong Chang, Bingpeng Ma, Shutao Bai, Shiguang Shan, Xilin
Chen
- Abstract要約: 衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
- 参考スコア(独自算出の注目度): 102.44387094119165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The key to address clothes-changing person re-identification (re-id) is to
extract clothes-irrelevant features, e.g., face, hairstyle, body shape, and
gait. Most current works mainly focus on modeling body shape from
multi-modality information (e.g., silhouettes and sketches), but do not make
full use of the clothes-irrelevant information in the original RGB images. In
this paper, we propose a Clothes-based Adversarial Loss (CAL) to mine
clothes-irrelevant features from the original RGB images by penalizing the
predictive power of re-id model w.r.t. clothes. Extensive experiments
demonstrate that using RGB images only, CAL outperforms all state-of-the-art
methods on widely-used clothes-changing person re-id benchmarks. Besides,
compared with images, videos contain richer appearance and additional temporal
information, which can be used to model proper spatiotemporal patterns to
assist clothes-changing re-id. Since there is no publicly available
clothes-changing video re-id dataset, we contribute a new dataset named CCVID
and show that there exists much room for improvement in modeling spatiotemporal
information. The code and new dataset are available at:
https://github.com/guxinqian/Simple-CCReID.
- Abstract(参考訳): 服装変更者再識別(re-id)に対処する鍵は、顔、髪型、体型、歩行などの無関係な特徴を抽出することである。
現在の作品のほとんどがマルチモダリティ情報(シルエットやスケッチなど)からの身体形状のモデル化に重点を置いているが、元のrgb画像では服の無関係な情報を十分に活用していない。
本稿では,RGB画像から衣料非関連特徴を抽出し,re-idモデルw.r.t.衣料の予測力をペナルティ化することにより,衣料非関連特徴を抽出するCALを提案する。
大規模な実験では、RGB画像のみを使用することで、CALは広く使用されている衣服変更者のre-idベンチマークにおいて、最先端の手法をすべて上回っている。
さらに、画像と比較すると、ビデオにはよりリッチな外観と、適切な時空間パターンをモデル化し、衣服の変化を支援するための時間情報が含まれている。
衣料品交換ビデオのリidデータセットは公開されていないため,ccvidという新しいデータセットをコントリビュートし,時空間情報のモデリングに多くの改善の余地があることを実証する。
コードと新しいデータセットは、https://github.com/guxinqian/Simple-CCReIDで入手できる。
関連論文リスト
- DLCR: A Generative Data Expansion Framework via Diffusion for Clothes-Changing Person Re-ID [69.70281727931048]
本稿では,多様な服装の個人画像を生成するための新しいデータ拡張フレームワークを提案する。
5つのベンチマークCC-ReIDデータセットの追加データを生成します。
DLCR生成データを用いて,先行技術(SOTA)法であるCALをトレーニングすることにより,トップ1の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-11T18:28:33Z) - Masked Attribute Description Embedding for Cloth-Changing Person Re-identification [66.53045140286987]
衣服交換者再識別(CC-ReID)は,長期にわたって衣服を交換する者をマッチングすることを目的としている。
CC-ReIDの鍵となる課題は、顔、髪型、体型、歩行など、衣服に依存しない特徴を抽出することである。
CC-ReIDの視覚的外観と属性記述を統一するMasked Attribute Description Embedding (MADE)法を提案する。
論文 参考訳(メタデータ) (2024-01-11T03:47:13Z) - GEFF: Improving Any Clothes-Changing Person ReID Model using Gallery
Enrichment with Face Features [11.189236254478057]
CC-ReID(Closes-Changing Re-Identification)問題では、人のクエリサンプルが与えられた場合、その人が異なる服装で現れるラベル付きギャラリーに基づいて正しいアイデンティティを決定することが目的である。
いくつかのモデルは、衣服に依存しない特徴を抽出することで、この問題に対処している。
衣料品関連の機能がデータの主要な機能であることが多いので、我々はギャラリー・エンリッチメントと呼ばれる新しいプロセスを提案する。
論文 参考訳(メタデータ) (2022-11-24T21:41:52Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Long-Term Cloth-Changing Person Re-identification [154.57752691285046]
人物再識別(Re-ID)は、異なる場所や時間におけるカメラビュー間で対象人物をマッチングすることを目的としている。
既存のRe-ID研究は、ある人が同じ服装で異なるカメラビューに再び現れる、短期的な布一貫した環境に焦点を当てている。
本研究は,例えば,何日,何ヶ月にもわたって,長期にまたがって人とのマッチングを行う,はるかに困難かつ実践的な環境に焦点をあてる。
論文 参考訳(メタデータ) (2020-05-26T11:27:21Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z) - Learning Shape Representations for Clothing Variations in Person
Re-Identification [34.559050607889816]
人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
論文 参考訳(メタデータ) (2020-03-16T17:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。