論文の概要: Part-Aware Transformer for Generalizable Person Re-identification
- arxiv url: http://arxiv.org/abs/2308.03322v2
- Date: Mon, 18 Sep 2023 08:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:45:36.536532
- Title: Part-Aware Transformer for Generalizable Person Re-identification
- Title(参考訳): 一般化可能な人物識別のための部分認識変換器
- Authors: Hao Ni, Yuke Li, Lianli Gao, Heng Tao Shen, Jingkuan Song
- Abstract要約: ドメイン一般化者再識別(DG-ReID)は、ソースドメインのモデルをトレーニングし、目に見えないドメインでうまく一般化することを目的としている。
我々は、CSL(Cross-ID similarity Learning)と呼ばれるプロキシタスクを設計し、DG-ReIDのための純粋なトランスモデル(Part-aware Transformer)を提案する。
このプロキシタスクは、IDラベルに関わらず、部品の視覚的類似性のみを気にするので、モデルが一般的な機能を学ぶことができる。
- 参考スコア(独自算出の注目度): 138.99827526048205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization person re-identification (DG-ReID) aims to train a
model on source domains and generalize well on unseen domains. Vision
Transformer usually yields better generalization ability than common CNN
networks under distribution shifts. However, Transformer-based ReID models
inevitably over-fit to domain-specific biases due to the supervised learning
strategy on the source domain. We observe that while the global images of
different IDs should have different features, their similar local parts (e.g.,
black backpack) are not bounded by this constraint. Motivated by this, we
propose a pure Transformer model (termed Part-aware Transformer) for DG-ReID by
designing a proxy task, named Cross-ID Similarity Learning (CSL), to mine local
visual information shared by different IDs. This proxy task allows the model to
learn generic features because it only cares about the visual similarity of the
parts regardless of the ID labels, thus alleviating the side effect of
domain-specific biases. Based on the local similarity obtained in CSL, a
Part-guided Self-Distillation (PSD) is proposed to further improve the
generalization of global features. Our method achieves state-of-the-art
performance under most DG ReID settings. Under the Market$\to$Duke setting, our
method exceeds state-of-the-art by 10.9% and 12.8% in Rank1 and mAP,
respectively. The code is available at
https://github.com/liyuke65535/Part-Aware-Transformer.
- Abstract(参考訳): ドメイン一般化者再識別(DG-ReID)は、ソースドメインのモデルをトレーニングし、見えないドメインでうまく一般化することを目的としている。
ビジョントランスフォーマーは通常、分布シフト下での一般的なcnnネットワークよりも優れた一般化能力をもたらす。
しかし、TransformerベースのReIDモデルは、ソースドメインの教師付き学習戦略のため、必然的にドメイン固有のバイアスに適合しない。
異なるidのグローバルイメージは異なる特徴を持つべきであるが、同様の局所的な部分(黒いバックパックなど)は、この制約によって拘束されない。
そこで本研究では,DG-ReID に共通する局所的な視覚情報をマイニングするために,CSL (Cross-ID similarity Learning) と呼ばれるプロキシタスクを設計することで,DG-ReID のための純粋なトランスフォーマーモデルを提案する。
このプロキシタスクは、IDラベルに関係なく部品の視覚的類似性のみを気にするので、モデルが汎用的な特徴を学習することができるため、ドメイン固有のバイアスの副作用を軽減することができる。
CSLで得られる局所的類似性に基づいて、グローバルな特徴の一般化をさらに向上するために、PSD(Part-guided Self-Distillation)を提案する。
提案手法は,ほとんどのDG ReID設定下での最先端性能を実現する。
Market$\to$Duke設定では、当社の手法は、それぞれランク1とmAPの10.9%、12.8%を超える。
コードはhttps://github.com/liyuke65535/Part-Aware-Transformerで入手できる。
関連論文リスト
- Other Tokens Matter: Exploring Global and Local Features of Vision Transformers for Object Re-Identification [63.147482497821166]
我々はまず,ViTのグローバルおよびローカルな特徴の影響を探求し,高性能オブジェクトRe-IDのための新しいグローバルローカ変換器(GLTrans)を提案する。
提案手法は,4つのオブジェクトRe-IDベンチマークにおいて優れた性能を実現する。
論文 参考訳(メタデータ) (2024-04-23T12:42:07Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z) - Style Normalization and Restitution for Generalizable Person
Re-identification [89.482638433932]
我々は、ソースドメイン上でモデルをトレーニングするが、ターゲットドメイン上での一般化や性能をよく行うことのできる、一般化可能な人物ReIDフレームワークを設計する。
本稿では,シンプルで効果的なスタイル正規化・再構成(SNR)モジュールを提案する。
SNRモジュールによって強化された我々のモデルは、複数の広く使われているReIDベンチマークにおいて最先端のドメイン一般化アプローチよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-05-22T07:15:10Z) - Learning Meta Face Recognition in Unseen Domains [74.69681594452125]
メタ顔認識(MFR)というメタラーニングを用いた新しい顔認識手法を提案する。
MFRは、メタ最適化目標を用いてソース/ターゲットドメインシフトを合成する。
一般化顔認識評価のためのベンチマークを2つ提案する。
論文 参考訳(メタデータ) (2020-03-17T14:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。