論文の概要: Style Interleaved Learning for Generalizable Person Re-identification
- arxiv url: http://arxiv.org/abs/2207.03132v1
- Date: Thu, 7 Jul 2022 07:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 14:06:27.372564
- Title: Style Interleaved Learning for Generalizable Person Re-identification
- Title(参考訳): 一般化可能な人物再識別のためのスタイルインターリーブ学習
- Authors: Wentao Tan and Pengfei Wang and Changxing Ding and Mingming Gong and
Kui Jia
- Abstract要約: 本稿では,DG ReIDトレーニングのための新しいスタイル間学習フレームワークを提案する。
従来の学習戦略とは異なり、インターリーブド・ラーニングには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 69.03539634477637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) for person re-identification (ReID) is a
challenging problem, as there is no access to target domain data permitted
during the training process. Most existing DG ReID methods employ the same
features for the updating of the feature extractor and classifier parameters.
This common practice causes the model to overfit to existing feature styles in
the source domain, resulting in sub-optimal generalization ability on target
domains even if meta-learning is used. To solve this problem, we propose a
novel style interleaved learning framework. Unlike conventional learning
strategies, interleaved learning incorporates two forward propagations and one
backward propagation for each iteration. We employ the features of interleaved
styles to update the feature extractor and classifiers using different forward
propagations, which helps the model avoid overfitting to certain domain styles.
In order to fully explore the advantages of style interleaved learning, we
further propose a novel feature stylization approach to diversify feature
styles. This approach not only mixes the feature styles of multiple training
samples, but also samples new and meaningful feature styles from batch-level
style distribution. Extensive experimental results show that our model
consistently outperforms state-of-the-art methods on large-scale benchmarks for
DG ReID, yielding clear advantages in computational efficiency. Code is
available at https://github.com/WentaoTan/Interleaved-Learning.
- Abstract(参考訳): 個人再識別(ReID)のためのドメイン一般化(DG)は、トレーニングプロセス中に許可されたターゲットドメインデータへのアクセスがないため、難しい問題である。
既存のDG ReIDメソッドのほとんどは、特徴抽出器と分類器パラメータの更新に同じ機能を使用している。
この一般的なプラクティスは、モデルがソースドメインの既存の機能スタイルに過度に適合し、メタラーニングを使用したとしても、ターゲットドメインに対する準最適一般化能力をもたらす。
この問題を解決するために,我々は新しいスタイルのインターリーブ学習フレームワークを提案する。
従来の学習戦略とは異なり、インターリーブド・ラーニングには2つの前方伝播と1つの後方伝播が組み込まれている。
我々は、異なる前方伝播を用いた特徴抽出器と分類器を更新するために、インターリーブド・スタイルの特徴を使用し、モデルが特定のドメイン・スタイルに過度に適合することを避けるのに役立つ。
スタイルインターリーブ学習の利点を十分に探求するために,特徴スタイルを多様化する新たな特徴スタイリング手法を提案する。
このアプローチは、複数のトレーニングサンプルの機能スタイルを混ぜるだけでなく、バッチレベルの配布から新しく意味のある機能スタイルをサンプリングする。
我々のモデルはDG ReIDの大規模ベンチマークにおいて常に最先端の手法よりも優れており、計算効率において明らかな優位性をもたらす。
コードはhttps://github.com/wentaotan/interleaved-learningで入手できる。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Enhancing Domain Adaptation through Prompt Gradient Alignment [16.618313165111793]
我々は、ドメイン不変性と特定の特徴の両方を学ぶために、素早い学習に基づく一連の作品を開発する。
我々は、UDAを、各目的がドメイン損失で表される多重目的最適化問題とみなした。
提案手法は,異なるUDAベンチマークにおいて,他のプロンプトベースベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-13T17:40:15Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Open Domain Generalization with a Single Network by Regularization
Exploiting Pre-trained Features [37.518025833882334]
Open Domain Generalization(ODG)は、分散シフトとカテゴリシフトを扱うため、困難なタスクである。
これまでの作業では複数のソース特化ネットワークを使用しており、コストが高い。
本稿では,単一ネットワークのみを用いてODGを処理できる手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T16:22:10Z) - DGInStyle: Domain-Generalizable Semantic Segmentation with Image Diffusion Models and Stylized Semantic Control [68.14798033899955]
大規模で事前訓練された潜伏拡散モデル(LDM)は、創造的コンテンツを生成できる異常な能力を示した。
しかし、それらは例えば、セマンティックセグメンテーションのような知覚スタックのタスクを改善するために、大規模なデータジェネレータとして使用できますか?
自律運転の文脈でこの疑問を考察し、「はい」という言い換えで答える。
論文 参考訳(メタデータ) (2023-12-05T18:34:12Z) - Domain Generalization with Correlated Style Uncertainty [4.844240089234632]
スタイル拡張は、インスタンス固有の特徴統計を利用する強力なDG手法である。
我々はCSU(Correlated Style Uncertainty)を導入し、スタイル統計空間における線形一般化の限界を超越した。
本手法の有効性は,多様なクロスドメインコンピュータビジョンと医用画像分類タスクの広範な実験を通じて確立される。
論文 参考訳(メタデータ) (2022-12-20T01:59:27Z) - Style Variable and Irrelevant Learning for Generalizable Person
Re-identification [2.9350185599710814]
本稿では,モデルに対するスタイル要因の影響を排除するために,スタイル変数と非関連学習(SVIL)手法を提案する。
SJMモジュールは、特定のソースドメインのスタイルの多様性を強化し、様々なソースドメインのスタイルの違いを減らすことができる。
提案手法はDG-ReIDベンチマークにおける最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-09-12T13:31:43Z) - Test-time Fourier Style Calibration for Domain Generalization [47.314071215317995]
我々は、ソーススタイルとターゲットスタイルのギャップを減らせば、モデルの一般化可能性を高めることができると論じる。
トレーニング中に対象ドメインにアクセスできないというジレンマを解決するために,テストタイムスタイル(TF-Cal)を導入する。
TF-Calを補完するAAF(Augment Amplitude Features)に有効な手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T02:43:03Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive
Object Re-ID [55.21702895051287]
ドメイン適応オブジェクトre-IDは、学習した知識をラベル付けされたソースドメインからラベル付けされていないターゲットドメインに転送することを目的としています。
本稿では,ハイブリットメモリを用いた自己評価型コントラスト学習フレームワークを提案する。
提案手法は,オブジェクトre-IDの複数のドメイン適応タスクにおいて,最先端の処理性能を向上する。
論文 参考訳(メタデータ) (2020-06-04T09:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。