論文の概要: Identity-Seeking Self-Supervised Representation Learning for
Generalizable Person Re-identification
- arxiv url: http://arxiv.org/abs/2308.08887v1
- Date: Thu, 17 Aug 2023 09:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 17:15:57.551057
- Title: Identity-Seeking Self-Supervised Representation Learning for
Generalizable Person Re-identification
- Title(参考訳): 一般化可能な人物再識別のためのアイデンティティ探索型自己監視表現学習
- Authors: Zhaopeng Dou, Zhongdao Wang, Yali Li, and Shengjin Wang
- Abstract要約: 従来のDG ReID法では、アノテーションのコストが高いため、トレーニングにラベル付きデータを限定的に使用していた。
本稿では,ISR(Identity-seeking Self-supervised Representation Learning)法を提案する。
ISRは、最大重み付き二部マッチング問題としてインスタンスアソシエーションをモデル化することにより、フレーム間画像から正のペアを構築する。
ISRは市場1501で87.0%、MSMT17で56.4%、それぞれ5.0%、19.5%となっている。
- 参考スコア(独自算出の注目度): 55.1738496692892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to learn a domain-generalizable (DG) person re-identification
(ReID) representation from large-scale videos \textbf{without any annotation}.
Prior DG ReID methods employ limited labeled data for training due to the high
cost of annotation, which restricts further advances. To overcome the barriers
of data and annotation, we propose to utilize large-scale unsupervised data for
training. The key issue lies in how to mine identity information. To this end,
we propose an Identity-seeking Self-supervised Representation learning (ISR)
method. ISR constructs positive pairs from inter-frame images by modeling the
instance association as a maximum-weight bipartite matching problem. A
reliability-guided contrastive loss is further presented to suppress the
adverse impact of noisy positive pairs, ensuring that reliable positive pairs
dominate the learning process. The training cost of ISR scales approximately
linearly with the data size, making it feasible to utilize large-scale data for
training. The learned representation exhibits superior generalization ability.
\textbf{Without human annotation and fine-tuning, ISR achieves 87.0\% Rank-1 on
Market-1501 and 56.4\% Rank-1 on MSMT17}, outperforming the best supervised
domain-generalizable method by 5.0\% and 19.5\%, respectively. In the
pre-training$\rightarrow$fine-tuning scenario, ISR achieves state-of-the-art
performance, with 88.4\% Rank-1 on MSMT17. The code is at
\url{https://github.com/dcp15/ISR_ICCV2023_Oral}.
- Abstract(参考訳): 本稿では,大規模ビデオからドメイン一般化可能な人物再識別(ReID)表現を学習することを目的とする。
従来のDG ReID法では、アノテーションのコストが高いため、ラベル付きデータに制限があるため、さらなる進歩が制限される。
データとアノテーションの障壁を克服するために,大規模な教師なしデータを用いたトレーニングを提案する。
鍵となる問題は、個人情報のマイニング方法だ。
そこで本研究では,ISR(Identity-seeking Self-supervised Representation Learning)法を提案する。
ISRは、最大重み付き二部マッチング問題としてインスタンスアソシエーションをモデル化することにより、フレーム間画像から正のペアを構築する。
さらに、信頼度誘導の対比損失により、ノイズの多い正のペアの悪影響を抑制し、信頼性の高い正のペアが学習プロセスを支配することを保証する。
ISRのトレーニングコストは、データサイズとほぼ直線的にスケールするため、大規模なデータをトレーニングに利用することが可能である。
学習した表現は優れた一般化能力を示す。
isr は market-1501 では 87.0\% ランク-1 を、msmt17} では 56.4\% ランク-1 をそれぞれ 87.0\% を、教師ありドメイン一般化法では .0\% と 19.5\% をそれぞれ上回っている。
事前トレーニングの$\rightarrow$fine-tuningシナリオでは、ISRは最先端のパフォーマンスを達成する。
コードは \url{https://github.com/dcp15/isr_iccv2023_oral}。
関連論文リスト
- Post-Training Attribute Unlearning in Recommender Systems [37.67195112898097]
既存の研究では、主にトレーニングデータ、すなわちモデル入力を未学習のターゲットとして使用している。
我々は、この未知の情報をtextitattribute と呼び、未学習のターゲットとして扱う。
ユーザのセンシティブな属性を保護するために、Attribute Unlearning(AU)は、ターゲット属性を識別不能にする。
論文 参考訳(メタデータ) (2024-03-11T14:02:24Z) - Debiased Learning for Remote Sensing Data [29.794246747637104]
本稿では,リモートセンシングデータに特化して,高度に効率的な半教師付きアプローチを提案する。
まず、このドメインに適した堅牢で弱い拡張を設計し、FixMatchフレームワークをリモートセンシングデータに適用する。
第2に,本モデルにより予測される実際のラベルと擬似ラベルの両方から得られる不均衡学習データのバイアスを除去し,効果的な半教師付き学習手法を開発する。
論文 参考訳(メタデータ) (2023-12-24T03:33:30Z) - Generalizable Re-Identification from Videos with Cycle Association [60.920036335996414]
トレーニングの複雑さの低いre-IDのためのスケーラブルな自己教師型学習手法として,CycAs(CycAs)を提案する。
提案手法に適したLMPビデオという,大規模でラベルのないre-IDデータセットを構築した。
CycAsは、時間的に連続したビデオフレームペア間のインスタンス関連性のサイクル一貫性を強制することによって、re-ID特徴を学習する。
論文 参考訳(メタデータ) (2022-11-07T16:21:57Z) - Adversarial Dual-Student with Differentiable Spatial Warping for
Semi-Supervised Semantic Segmentation [70.2166826794421]
本研究では、教師なしデータ拡張を行うために、微分可能な幾何ワープを提案する。
また,平均教師数を改善するために,新しい対角的二重学習フレームワークを提案する。
我々のソリューションは、両方のデータセットで得られるパフォーマンスと最先端の結果を大幅に改善します。
論文 参考訳(メタデータ) (2022-03-05T17:36:17Z) - Unleashing the Potential of Unsupervised Pre-Training with
Intra-Identity Regularization for Person Re-Identification [10.045028405219641]
我々は、UP-ReIDと呼ばれる対照的学習(CL)パイプラインに基づいて、ReIDのための教師なし事前学習フレームワークを設計する。
UP-ReIDにI$2$-の正則化を導入し,大域的な画像的側面と局所的なパッチ的側面の2つの制約としてインスタンス化する。
我々のUP-ReID事前学習モデルは、下流のReID微調整の利点を大いに生かし、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-01T07:16:37Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Unsupervised Pre-training for Person Re-identification [90.98552221699508]
大規模無ラベル人物再識別(Re-ID)データセットLUPersonを提案する。
学習者のRe-ID特徴表現の一般化能力を向上させるために,教師なし事前学習を初めて行おうとする。
論文 参考訳(メタデータ) (2020-12-07T14:48:26Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。