論文の概要: Learning Invariance from Generated Variance for Unsupervised Person
Re-identification
- arxiv url: http://arxiv.org/abs/2301.00725v1
- Date: Mon, 2 Jan 2023 15:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:20:50.364636
- Title: Learning Invariance from Generated Variance for Unsupervised Person
Re-identification
- Title(参考訳): 教師なし再同定のための生成分散からの学習不変性
- Authors: Hao Chen, Yaohui Wang, Benoit Lagadec, Antitza Dantcheva, Francois
Bremond
- Abstract要約: 従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
- 参考スコア(独自算出の注目度): 15.096776375794356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work focuses on unsupervised representation learning in person
re-identification (ReID). Recent self-supervised contrastive learning methods
learn invariance by maximizing the representation similarity between two
augmented views of a same image. However, traditional data augmentation may
bring to the fore undesirable distortions on identity features, which is not
always favorable in id-sensitive ReID tasks. In this paper, we propose to
replace traditional data augmentation with a generative adversarial network
(GAN) that is targeted to generate augmented views for contrastive learning. A
3D mesh guided person image generator is proposed to disentangle a person image
into id-related and id-unrelated features. Deviating from previous GAN-based
ReID methods that only work in id-unrelated space (pose and camera style), we
conduct GAN-based augmentation on both id-unrelated and id-related features. We
further propose specific contrastive losses to help our network learn
invariance from id-unrelated and id-related augmentations. By jointly training
the generative and the contrastive modules, our method achieves new
state-of-the-art unsupervised person ReID performance on mainstream large-scale
benchmarks.
- Abstract(参考訳): 本研究は、人物再識別(ReID)における教師なし表現学習に焦点を当てている。
最近の自己教師付きコントラスト学習法は、同一画像の2つの拡張ビュー間の表現類似性を最大化することで不変性を学ぶ。
しかし、従来のデータ拡張は、IDに敏感なReIDタスクでは必ずしも好ましくないアイデンティティ機能に対する望ましくない歪みをもたらす可能性がある。
本稿では,従来のデータ拡張を,コントラスト学習のための拡張ビューを生成するために,GAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成装置の提案により、人物画像をID関連およびID非関連の特徴に分解する。
id-unrelated space(poseとカメラスタイル)でのみ動作する従来のganベースのreidメソッドから外れて、id-unrelatedとid-related機能の両方でganベースの拡張を行います。
さらに、ネットワークがID非関連およびID関連拡張から不変性を学ぶのを助けるために、特定の対照的な損失を提案する。
ジェネレイティブモジュールとコントラストモジュールを共同で訓練することにより,メインストリームの大規模ベンチマークにおいて,新たな最先端の非教師なしreid性能を実現する。
関連論文リスト
- Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Synthesizing Efficient Data with Diffusion Models for Person Re-Identification Pre-Training [51.87027943520492]
本稿では,既知の同一性に基づく多様な画像の効率向上と生成を行う新しいパラダイムDiffusion-ReIDを提案する。
提案したパラダイムに適合して,まず,5,183個のIDから777K以上の画像で構成された,大規模なRe-IDデータセットDiff-Personを新たに作成する。
論文 参考訳(メタデータ) (2024-06-10T06:26:03Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z) - ICE: Inter-instance Contrastive Encoding for Unsupervised Person
Re-identification [7.766663319126491]
Unsupervised Person Re-identification (ReID) は、アノテーションなしで識別識別機能を学ぶことを目的としている。
従来のクラスレベルの対照的ReIDメソッドを後押しするために、インスタンス間のペアワイズ類似度スコアを利用するInter-instance Contrastive ICEを提案する。
複数の大規模人物ReIDデータセットに対する実験により,提案手法であるICEの有効性が検証された。
論文 参考訳(メタデータ) (2021-03-30T14:05:09Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Joint Generative and Contrastive Learning for Unsupervised Person
Re-identification [15.486689594217273]
最近の自己指導型コントラスト学習は、教師なしの人物再識別(ReID)に効果的なアプローチを提供する
本稿では,GAN(Generative Adversarial Network)とコントラスト学習モジュールを1つのジョイントトレーニングフレームワークに統合する。
論文 参考訳(メタデータ) (2020-12-16T16:49:57Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - Cross-Resolution Adversarial Dual Network for Person Re-Identification
and Beyond [59.149653740463435]
人物再識別(re-ID)は、同一人物の画像をカメラビューでマッチングすることを目的としている。
カメラと関心のある人の距離が異なるため、解像度ミスマッチが期待できる。
本稿では,クロスレゾリューションな人物のリIDに対処する新たな生成的対向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T07:21:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。