論文の概要: Masked Attribute Description Embedding for Cloth-Changing Person
Re-identification
- arxiv url: http://arxiv.org/abs/2401.05646v2
- Date: Fri, 12 Jan 2024 04:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 12:13:53.610168
- Title: Masked Attribute Description Embedding for Cloth-Changing Person
Re-identification
- Title(参考訳): 衣服交換者再識別のための仮面属性記述埋め込み
- Authors: Chunlei Peng, Boyu Wang, Decheng Liu, Nannan Wang, Ruimin Hu, Xinbo
Gao
- Abstract要約: 衣服交換者再識別(CC-ReID)は,長期にわたって衣服を交換する者をマッチングすることを目的としている。
CC-ReIDの鍵となる課題は、顔、髪型、体型、歩行など、衣服に依存しない特徴を抽出することである。
CC-ReIDの視覚的外観と属性記述を統一するMasked Attribute Description Embedding (MADE)法を提案する。
- 参考スコア(独自算出の注目度): 70.49671890605497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth-changing person re-identification (CC-ReID) aims to match persons who
change clothes over long periods. The key challenge in CC-ReID is to extract
clothing-independent features, such as face, hairstyle, body shape, and gait.
Current research mainly focuses on modeling body shape using multi-modal
biological features (such as silhouettes and sketches). However, it does not
fully leverage the personal description information hidden in the original RGB
image. Considering that there are certain attribute descriptions which remain
unchanged after the changing of cloth, we propose a Masked Attribute
Description Embedding (MADE) method that unifies personal visual appearance and
attribute description for CC-ReID. Specifically, handling variable
clothing-sensitive information, such as color and type, is challenging for
effective modeling. To address this, we mask the clothing and color information
in the personal attribute description extracted through an attribute detection
model. The masked attribute description is then connected and embedded into
Transformer blocks at various levels, fusing it with the low-level to
high-level features of the image. This approach compels the model to discard
clothing information. Experiments are conducted on several CC-ReID benchmarks,
including PRCC, LTCC, Celeb-reID-light, and LaST. Results demonstrate that MADE
effectively utilizes attribute description, enhancing cloth-changing person
re-identification performance, and compares favorably with state-of-the-art
methods. The code is available at https://github.com/moon-wh/MADE.
- Abstract(参考訳): 着替え人再確認(cc-reid)は、長期間着替えた人とマッチングすることを目的としている。
CC-ReIDの鍵となる課題は、顔、髪型、体型、歩行など、衣服に依存しない特徴を抽出することである。
最近の研究は主に多様生物的特徴(シルエットやスケッチなど)を用いた身体形状のモデル化に焦点を当てている。
しかし、元のRGB画像に隠された個人記述情報を十分に活用していない。
布地変更後も変化しない属性記述が存在することを考慮し,cc-reidの個人的視覚的外観と属性記述を統一するマスク付き属性記述埋め込み(made)手法を提案する。
特に,色や型といった着衣に敏感な情報を扱うことは,効果的なモデリングには困難である。
これを解決するために,属性検出モデルを用いて抽出した個人属性記述における衣服や色情報を隠蔽する。
マスクされた属性記述は、様々なレベルでTransformerブロックに接続され、画像の低レベルから高レベルの特徴と融合する。
このアプローチは、衣服情報を破棄するモデルを補完する。
実験は、PRCC、LTCC、Celeb-reID-light、LaSTなどのCC-ReIDベンチマークで実施されている。
その結果,属性記述を効果的に活用し,人物再識別性能を高め,最先端手法と好適な比較を行った。
コードはhttps://github.com/moon-wh/madeで入手できる。
関連論文リスト
- CLIP-Driven Cloth-Agnostic Feature Learning for Cloth-Changing Person Re-Identification [47.948622774810296]
衣服交換者再識別のためのCLIP-Driven Cloth-Agnostic Feature Learning (CCAF) という新しいフレームワークを提案する。
Invariant Feature Prompting (IFP) と Clothes Feature Minimization (CFM) の2つのモジュールがカスタム設計されている。
提案したCCAFの有効性を実証し、いくつかのCC-ReIDベンチマークで新たな最先端性能を実現した。
論文 参考訳(メタデータ) (2024-06-13T14:56:07Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Video Person Re-identification using Attribute-enhanced Features [49.68392018281875]
本稿では属性支援型ビデオ人物Re-IDのためのAttribute Salience Assisted Network (ASA-Net) という新しいネットワークアーキテクチャを提案する。
対象を背景からよりよく分離するために,ハイレベルな属性ではなく,中程度の属性から視覚的注意を学習することを提案する。
論文 参考訳(メタデータ) (2021-08-16T07:41:27Z) - CAFE-GAN: Arbitrary Face Attribute Editing with Complementary Attention
Feature [31.425326840578098]
本稿では,対象属性に関連する顔の部分のみを編集する新しいGANモデルを提案する。
CAFEは、目的属性と相補属性の両方を考慮し、変換すべき顔領域を特定する。
論文 参考訳(メタデータ) (2020-11-24T05:21:03Z) - Learning Shape Representations for Clothing Variations in Person
Re-Identification [34.559050607889816]
人物再識別(re-ID)は、異なるカメラで撮影された複数の画像に含まれる同一人物のインスタンスを認識することを目的としている。
衣服の色やパターンの影響を受けずに体型特徴表現を生成できる新しい表現学習モデルを提案する。
Case-Netは、相手の学習と特徴の絡み合いを通じて、身体の形にのみ依存するアイデンティティの表現を学習する。
論文 参考訳(メタデータ) (2020-03-16T17:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。