論文の概要: Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification
- arxiv url: http://arxiv.org/abs/2112.00317v1
- Date: Wed, 1 Dec 2021 07:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 23:48:44.234336
- Title: Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification
- Title(参考訳): 人体再同定における非教師なし事前訓練の可能性
- Authors: Zizheng Yang, Xin Jin, Kecheng Zheng, Feng Zhao
- Abstract要約: 我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
- 参考スコア(独自算出の注目度): 10.045028405219641
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing person re-identification (ReID) methods typically directly load the
pre-trained ImageNet weights for initialization. However, as a fine-grained
classification task, ReID is more challenging and exists a large domain gap
between ImageNet classification. Inspired by the great success of
self-supervised representation learning with contrastive objectives, in this
paper, we design an Unsupervised Pre-training framework for ReID based on the
contrastive learning (CL) pipeline, dubbed UP-ReID. During the pre-training, we
attempt to address two critical issues for learning fine-grained ReID features:
(1) the augmentations in CL pipeline may distort the discriminative clues in
person images. (2) the fine-grained local features of person images are not
fully-explored. Therefore, we introduce an intra-identity
(I$^2$-)regularization in the UP-ReID, which is instantiated as two constraints
coming from global image aspect and local patch aspect: a global consistency is
enforced between augmented and original person images to increase robustness to
augmentation, while an intrinsic contrastive constraint among local patches of
each image is employed to fully explore the local discriminative clues.
Extensive experiments on multiple popular Re-ID datasets, including PersonX,
Market1501, CUHK03, and MSMT17, demonstrate that our UP-ReID pre-trained model
can significantly benefit the downstream ReID fine-tuning and achieve
state-of-the-art performance. Codes and models will be released to
https://github.com/Frost-Yang-99/UP-ReID.
- Abstract(参考訳): 既存の人物再識別(ReID)メソッドは通常、初期化のためにトレーニング済みのImageNet重みを直接ロードする。
しかし、粒度の細かい分類タスクとして、ReIDはより困難であり、ImageNet分類の間に大きな領域ギャップが存在する。
本稿では,コントラスト学習(cl)パイプラインに基づくreidのための教師なし事前学習フレームワークであるup-reidを設計した。
事前学習中に,細粒度のreid特徴を学習するための2つの重要な課題に対処しようとする。(1)clパイプラインの強化は,人物画像の識別手がかりを歪めてしまう可能性がある。
2) 人物像のきめ細かい局所的特徴は完全には探索されていない。
そこで, UP-ReIDでは, 大域的な画像的側面と局所的なパッチ的側面から生じる2つの制約として, 自己同一性(I$^2$-)の規則化を導入する。
PersonX, Market1501, CUHK03, MSMT17などの一般的なRe-IDデータセットに対する大規模な実験により、私たちのUP-ReID事前訓練モデルは、下流のReID微調整に大きな恩恵をもたらし、最先端のパフォーマンスを達成することができることを示した。
コードとモデルはhttps://github.com/Frost-Yang-99/UP-ReIDにリリースされる。
関連論文リスト
- Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - DiffBIR: Towards Blind Image Restoration with Generative Diffusion Prior [70.46245698746874]
DiffBIRは、視覚の異なる画像復元タスクを処理できる一般的な修復パイプラインである。
DiffBIRは, ブラインド画像復元問題を, 1) 劣化除去: 画像に依存しない内容の除去; 2) 情報再生: 失われた画像内容の生成の2段階に分離する。
第1段階では, 修復モジュールを用いて劣化を除去し, 高忠実度復元結果を得る。
第2段階では、潜伏拡散モデルの生成能力を活用して現実的な詳細を生成するIRControlNetを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:11:52Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - VTBR: Semantic-based Pretraining for Person Re-Identification [14.0819152482295]
本稿では,VTBRという純粋意味に基づく事前学習手法を提案する。
我々は、FinGPR-Cデータセットのキャプションをスクラッチから畳み込みネットワークをトレーニングし、それらを下流のRe-IDタスクに転送する。
論文 参考訳(メタデータ) (2021-10-11T08:19:45Z) - Unsupervised Person Re-identification via Simultaneous Clustering and
Consistency Learning [22.008371113710137]
静止画からの視覚的一貫性とトレーニングプロセス中の時間的一貫性を学習することにより、教師なし再IDのプリテキストタスクを設計します。
2つのエンコードされたビューを同じクラスタにグループ化し、ビュー間の視覚的一貫性を高めることで、モデルを最適化する。
論文 参考訳(メタデータ) (2021-04-01T02:10:42Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。