論文の概要: Cross-video Identity Correlating for Person Re-identification Pre-training
- arxiv url: http://arxiv.org/abs/2409.18569v1
- Date: Fri, 27 Sep 2024 09:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 21:55:30.160089
- Title: Cross-video Identity Correlating for Person Re-identification Pre-training
- Title(参考訳): 人物再識別事前訓練に関連するクロスビデオアイデンティティ
- Authors: Jialong Zuo, Ying Nie, Hanyu Zhou, Huaxin Zhang, Haoyu Wang, Tianyu Guo, Nong Sang, Changxin Gao,
- Abstract要約: 本稿では,CION(Cross-video Identity-cOrrelating Pre-TraiNing)フレームワークを提案する。
CIONは、プログレッシブなマルチレベル denoising 問題としてモデル化することで、クロスビデオ画像からの同一性相関を求める。
また,この分野での多様な研究や応用ニーズを満たすため,ReIDZooというモデル動物園を寄贈した。
- 参考スコア(独自算出の注目度): 38.43616465478059
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent researches have proven that pre-training on large-scale person images extracted from internet videos is an effective way in learning better representations for person re-identification. However, these researches are mostly confined to pre-training at the instance-level or single-video tracklet-level. They ignore the identity-invariance in images of the same person across different videos, which is a key focus in person re-identification. To address this issue, we propose a Cross-video Identity-cOrrelating pre-traiNing (CION) framework. Defining a noise concept that comprehensively considers both intra-identity consistency and inter-identity discrimination, CION seeks the identity correlation from cross-video images by modeling it as a progressive multi-level denoising problem. Furthermore, an identity-guided self-distillation loss is proposed to implement better large-scale pre-training by mining the identity-invariance within person images. We conduct extensive experiments to verify the superiority of our CION in terms of efficiency and performance. CION achieves significantly leading performance with even fewer training samples. For example, compared with the previous state-of-the-art~\cite{ISR}, CION with the same ResNet50-IBN achieves higher mAP of 93.3\% and 74.3\% on Market1501 and MSMT17, while only utilizing 8\% training samples. Finally, with CION demonstrating superior model-agnostic ability, we contribute a model zoo named ReIDZoo to meet diverse research and application needs in this field. It contains a series of CION pre-trained models with spanning structures and parameters, totaling 32 models with 10 different structures, including GhostNet, ConvNext, RepViT, FastViT and so on. The code and models will be made publicly available at https://github.com/Zplusdragon/CION_ReIDZoo.
- Abstract(参考訳): 近年の研究では、インターネットビデオから抽出した大規模人物画像の事前学習が、人物の再識別のためのより良い表現の学習に有効な方法であることが証明されている。
しかし、これらの研究は、主にインスタンスレベルまたはシングルビデオトラックレットレベルでの事前学習に限られている。
彼らは、同一人物の画像における同一人物の同一性の違いを無視しており、これは人物の再識別に重要な焦点をあてている。
この問題に対処するため,我々はCION(Cross-video Identity-cOrrelating Pre-TraiNing)フレームワークを提案する。
CIONは、アイデンティティ間の一貫性とアイデンティティ間の識別の両方を包括的に考慮したノイズの概念を定義し、それをプログレッシブなマルチレベル認知問題としてモデル化することで、ビデオ間画像からのアイデンティティ相関を求める。
さらに、個人画像内のアイデンティティ不変性をマイニングすることにより、より大規模な事前学習を実現するために、アイデンティティ誘導型自己蒸留損失を提案する。
我々は、効率と性能の観点から、CIONの優位性を検証するための広範な実験を行っている。
CIONはトレーニングサンプルを減らして、大幅なパフォーマンス向上を実現している。
例えば、以前の最先端〜\cite{ISR}と比較して、同じResNet50-IBNを持つCIONは8\%のトレーニングサンプルしか利用せず、Market1501とMSMT17で93.3\%と74.3\%のmAPを達成する。
最後に、CIONが優れたモデル非依存能力を示すことにより、この分野での多様な研究や応用のニーズを満たすためにReIDZooという名前のモデル動物園を寄贈する。
一連のCION事前訓練されたモデルと、分散構造とパラメータを持ち、GhostNet、ConvNext、RepViT、FastViTなどを含む10の異なる構造を持つ32モデルが含まれている。
コードとモデルはhttps://github.com/Zplusdragon/CION_ReIDZoo.comで公開される。
関連論文リスト
- Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。