論文の概要: Multiple Information Prompt Learning for Cloth-Changing Person Re-Identification
- arxiv url: http://arxiv.org/abs/2411.00330v1
- Date: Fri, 01 Nov 2024 03:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:21.744939
- Title: Multiple Information Prompt Learning for Cloth-Changing Person Re-Identification
- Title(参考訳): 衣服交換者再識別のための複数情報プロンプト学習
- Authors: Shengxun Wei, Zan Gao, Yibo Zhao, Weili Guan,
- Abstract要約: 布を交換するReIDのためのMIPL(Multiple Information prompt Learning)方式を提案する。
CISモジュールは、衣料品情報を元のRGBイメージ機能から切り離すように設計されている。
The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information。
- 参考スコア(独自算出の注目度): 17.948263914620238
- License:
- Abstract: Cloth-changing person re-identification is a subject closer to the real world, which focuses on solving the problem of person re-identification after pedestrians change clothes. The primary challenge in this field is to overcome the complex interplay between intra-class and inter-class variations and to identify features that remain unaffected by changes in appearance. Sufficient data collection for model training would significantly aid in addressing this problem. However, it is challenging to gather diverse datasets in practice. Current methods focus on implicitly learning identity information from the original image or introducing additional auxiliary models, which are largely limited by the quality of the image and the performance of the additional model. To address these issues, inspired by prompt learning, we propose a novel multiple information prompt learning (MIPL) scheme for cloth-changing person ReID, which learns identity robust features through the common prompt guidance of multiple messages. Specifically, the clothing information stripping (CIS) module is designed to decouple the clothing information from the original RGB image features to counteract the influence of clothing appearance. The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information. A dual-length hybrid patch (DHP) module is employed to make the features have diverse coverage to minimize the impact of feature bias. Extensive experiments demonstrate that the proposed method outperforms all state-of-the-art methods on the LTCC, Celeb-reID, Celeb-reID-light, and CSCC datasets, achieving rank-1 scores of 74.8%, 73.3%, 66.0%, and 88.1%, respectively. When compared to AIM (CVPR23), ACID (TIP23), and SCNet (MM23), MIPL achieves rank-1 improvements of 11.3%, 13.8%, and 7.9%, respectively, on the PRCC dataset.
- Abstract(参考訳): 衣服交換者の再識別は現実世界に近い課題であり、歩行者が衣服を変更した後の人物再識別の問題を解決することに焦点を当てている。
この分野での最大の課題は、クラス内とクラス間の複雑な相互作用を克服し、外観の変化の影響を受けない特徴を特定することである。
モデルトレーニングのための十分なデータ収集は、この問題に対処するのに大いに役立ちます。
しかし、様々なデータセットを実際に収集することは困難である。
現在の手法は、元の画像から暗黙的に識別情報を学習することや、追加の補助モデルを導入することに焦点を当てている。
これらの課題に即時学習に触発されて着替え人ReIDのための新しい多元的情報プロンプト学習(MIPL)手法を提案する。
具体的には、衣料情報ストリップ(CIS)モジュールは、衣料情報と元のRGB画像特徴とを分離して、衣料の外観の影響に対処するように設計されている。
The Bio-guided attention (BGA) module is proposed to increase the learning intensity of the model for key information。
二重長ハイブリッドパッチ(DHP)モジュールは、特徴バイアスの影響を最小限に抑えるために、多彩なカバレッジを実現するために使用される。
大規模な実験により、提案手法はLTCC、Celeb-reID、Celeb-reID-light、CSCCデータセットの全ての最先端手法を上回り、それぞれ74.8%、73.3%、66.0%、88.1%のランク1スコアを得た。
AIM(CVPR23)、ACID(TIP23)、SCNet(MM23)と比較すると、MIPLはPRCCデータセットでそれぞれ11.3%、13.8%、および7.9%のランク1の改善を達成している。
関連論文リスト
- Discriminative Pedestrian Features and Gated Channel Attention for Clothes-Changing Person Re-Identification [8.289726210177532]
衣服交換者再識別 (CC-ReID) の重要性が高まっている。
本稿では,歩行者画像から識別的特徴を効果的に抽出する手法を提案する。
2つの標準CC-ReIDデータセットを用いて実験を行い、提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-10-29T02:12:46Z) - Attention-based Shape and Gait Representations Learning for Video-based
Cloth-Changing Person Re-Identification [1.6385815610837167]
我々は「注意に基づく形状と歩行表現学習」(ASGL)を提案することにより、映像ベースの衣服交換者Re-ID(VCCRe-ID)の実践的問題に対処する。
当社のASGLフレームワークは,衣服不変歩行手がかりを学習することにより,衣服変動下でのRe-ID性能を向上させる。
提案するST-GATはマルチヘッドアテンションモジュールから構成されており,歩行埋め込みの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-02-06T05:11:46Z) - AaP-ReID: Improved Attention-Aware Person Re-identification [2.5761958263376745]
AaP-ReIDは、ResNetベースのアーキテクチャにチャネルの注意を組み込む、より効果的な人物ReIDの手法である。
提案手法は,Channel-Wise Attention Bottleneckブロックを組み込んで,特徴マップにおけるChannel-Wise Attention Bottleneckブロックの重要性を動的に調整することで特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-27T16:54:38Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - Instruct-ReID: A Multi-purpose Person Re-identification Task with
Instructions [64.55715112644562]
本稿では,与えられた画像や言語命令に従って,モデルに画像の検索を要求する命令-ReIDタスクを提案する。
我々の命令-ReIDはより一般的なReID設定であり、既存の6つのReIDタスクを異なる命令を設計することで特別なケースとして見ることができる。
実験結果から,OmniReIDベンチマークで微調整なしでトレーニングした多目的ReIDモデルでは, Market1501, MSMT17, CUHK03, 従来のReIDでは+0.5%, +0.6%, +7.7%mAP, PRCCでは+6.4%, +7.1%, +11.2%mAPの改善が可能であった。
論文 参考訳(メタデータ) (2023-06-13T03:25:33Z) - Multi-Stage Spatio-Temporal Aggregation Transformer for Video Person
Re-identification [78.08536797239893]
本稿では,2つの新しいプロキシ埋め込みモジュールを設計したMSTAT(Multi-Stage Space-Temporal Aggregation Transformer)を提案する。
MSTATは、属性関連、アイデンティティ関連、および属性関連情報をビデオクリップからエンコードする3つのステージから構成される。
MSTATは様々な標準ベンチマークで最先端の精度を達成できることを示す。
論文 参考訳(メタデータ) (2023-01-02T05:17:31Z) - A Semantic-aware Attention and Visual Shielding Network for
Cloth-changing Person Re-identification [29.026249268566303]
衣服交換者再識別(ReID)は,衣服が変更された歩行者を回収することを目的とした,新たな研究課題である。
異なる服装の人間の外見は大きなバリエーションを示すため、差別的かつ堅牢な特徴表現を抽出する既存のアプローチは非常に困難である。
本研究は, 着替え型ReIDのための新しい意味認識・視覚遮蔽ネットワークを提案する。
論文 参考訳(メタデータ) (2022-07-18T05:38:37Z) - A High-Accuracy Unsupervised Person Re-identification Method Using
Auxiliary Information Mined from Datasets [53.047542904329866]
マルチモーダルな特徴学習のためのデータセットから抽出した補助情報を利用する。
本稿では,Restricted Label Smoothing Cross Entropy Loss (RLSCE), Weight Adaptive Triplet Loss (WATL), Dynamic Training Iterations (DTI)の3つの効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-05-06T10:16:18Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。