論文の概要: CLIP-based Camera-Agnostic Feature Learning for Intra-camera Person Re-Identification
- arxiv url: http://arxiv.org/abs/2409.19563v1
- Date: Sun, 29 Sep 2024 05:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:06:38.949315
- Title: CLIP-based Camera-Agnostic Feature Learning for Intra-camera Person Re-Identification
- Title(参考訳): カメラ内人物再同定のためのCLIPに基づくカメラ非依存の特徴学習
- Authors: Xuan Tan, Xun Gong, Yang Xiang,
- Abstract要約: ICS ReIDのためのCLIPベースのカメラ非依存特徴学習(CCAFL)という新しいフレームワークを提案する。
2つのカスタムモジュールは、カメラに依存しない歩行者の特徴を積極的に学ぶためにモデルをガイドするように設計されている。
一般的なReIDデータセットの実験では、mAPの精度で58.9%に達し、最先端のメソッドを7.6%上回る。
- 参考スコア(独自算出の注目度): 11.882424627567998
- License:
- Abstract: Contrastive Language-Image Pre-Training (CLIP) model excels in traditional person re-identification (ReID) tasks due to its inherent advantage in generating textual descriptions for pedestrian images. However, applying CLIP directly to intra-camera supervised person re-identification (ICS ReID) presents challenges. ICS ReID requires independent identity labeling within each camera, without associations across cameras. This limits the effectiveness of text-based enhancements. To address this, we propose a novel framework called CLIP-based Camera-Agnostic Feature Learning (CCAFL) for ICS ReID. Accordingly, two custom modules are designed to guide the model to actively learn camera-agnostic pedestrian features: Intra-Camera Discriminative Learning (ICDL) and Inter-Camera Adversarial Learning (ICAL). Specifically, we first establish learnable textual prompts for intra-camera pedestrian images to obtain crucial semantic supervision signals for subsequent intra- and inter-camera learning. Then, we design ICDL to increase inter-class variation by considering the hard positive and hard negative samples within each camera, thereby learning intra-camera finer-grained pedestrian features. Additionally, we propose ICAL to reduce inter-camera pedestrian feature discrepancies by penalizing the model's ability to predict the camera from which a pedestrian image originates, thus enhancing the model's capability to recognize pedestrians from different viewpoints. Extensive experiments on popular ReID datasets demonstrate the effectiveness of our approach. Especially, on the challenging MSMT17 dataset, we arrive at 58.9\% in terms of mAP accuracy, surpassing state-of-the-art methods by 7.6\%. Code will be available at: https://github.com/Trangle12/CCAFL.
- Abstract(参考訳): コントラスト言語-画像事前訓練(CLIP)モデルは、歩行者画像のテキスト記述の生成に固有の利点があるため、従来の人物再識別(ReID)タスクに優れる。
しかし、CLIPをカメラ内監督者再識別(ICS ReID)に直接適用することは、課題を提起する。
ICS ReIDは、カメラ間での関連なしに、各カメラ内で独立したIDラベリングを必要とする。
これにより、テキストベースの拡張の有効性が制限される。
そこで我々は,ICS ReIDのためのCLIPベースのカメラ非依存特徴学習(CCAFL)という新しいフレームワークを提案する。
そのため、カメラ非依存の歩行者特徴を積極的に学習するためのモデルとして、ICDL(Intra-Camera Discriminative Learning)とIC(Inter-Camera Adversarial Learning)の2つのカスタムモジュールが設計されている。
具体的には、まず、カメラ内歩行者画像の学習可能なテキストプロンプトを確立し、その後のカメラ内およびカメラ間学習において重要な意味的監視信号を得る。
そこで, ICDLを設計し, 各カメラ内の強正・強負のサンプルを考慮し, より微細な歩行者特性を学習することで, クラス間変動を増大させる。
さらに、歩行者画像が生み出すカメラの予測能力をペナルティ化し、異なる視点から歩行者を識別する能力を高めることにより、カメラ間歩行者特徴差の低減を図ることを提案する。
一般的なReIDデータセットに関する大規模な実験は、我々のアプローチの有効性を実証している。
特に、挑戦的なMSMT17データセットでは、mAPの精度で58.9\%に達し、最先端の手法を7.6\%上回る。
コードは、https://github.com/Trangle12/CCAFL.comから入手できる。
関連論文リスト
- Learning Intra and Inter-Camera Invariance for Isolated Camera
Supervised Person Re-identification [6.477096324232456]
クロスカメラ画像は、単にカメラスタイルで異なるIDとして認識される傾向がある。
本稿では,ISCS設定下での人物のリIDについて検討する。
論文 参考訳(メタデータ) (2023-11-02T11:32:40Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Camera-Tracklet-Aware Contrastive Learning for Unsupervised Vehicle
Re-Identification [4.5471611558189124]
車両識別ラベルのないマルチカメラ・トラックレット情報を用いたカメラ・トラックレット対応コントラスト学習(CTACL)を提案する。
提案したCTACLは、全車両画像(全車両画像)を複数のカメラレベルの画像に分割し、コントラスト学習を行う。
本稿では,ビデオベースおよび画像ベース車両のRe-IDデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2021-09-14T02:12:54Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z) - Rethinking the Distribution Gap of Person Re-identification with
Camera-based Batch Normalization [90.9485099181197]
本稿では,従来のReID手法の動作機構を再考する。
我々は、すべてのカメラの画像データを同じ部分空間に落とすように強制する。
幅広いReIDタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-01-23T17:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。