論文の概要: Style Variable and Irrelevant Learning for Generalizable Person
Re-identification
- arxiv url: http://arxiv.org/abs/2209.05235v1
- Date: Mon, 12 Sep 2022 13:31:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:26:11.383489
- Title: Style Variable and Irrelevant Learning for Generalizable Person
Re-identification
- Title(参考訳): 一般化可能な人物再識別のためのスタイル変数と非関連学習
- Authors: Haobo Chen, Chuyang Zhao, Kai Tu, Junru Chen, Yadong Li, Boxun Li
- Abstract要約: 本稿では,モデルに対するスタイル要因の影響を排除するために,スタイル変数と非関連学習(SVIL)手法を提案する。
SJMモジュールは、特定のソースドメインのスタイルの多様性を強化し、様々なソースドメインのスタイルの違いを減らすことができる。
提案手法はDG-ReIDベンチマークにおける最先端の手法よりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 2.9350185599710814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, due to the poor performance of supervised person re-identification
(ReID) to an unseen domain, Domain Generalization (DG) person ReID has
attracted a lot of attention which aims to learn a domain-insensitive model and
can resist the influence of domain bias. In this paper, we first verify through
an experiment that style factors are a vital part of domain bias. Base on this
conclusion, we propose a Style Variable and Irrelevant Learning (SVIL) method
to eliminate the effect of style factors on the model. Specifically, we design
a Style Jitter Module (SJM) in SVIL. The SJM module can enrich the style
diversity of the specific source domain and reduce the style differences of
various source domains. This leads to the model focusing on identity-relevant
information and being insensitive to the style changes. Besides, we organically
combine the SJM module with a meta-learning algorithm, maximizing the benefits
and further improving the generalization ability of the model. Note that our
SJM module is plug-and-play and inference cost-free. Extensive experiments
confirm the effectiveness of our SVIL and our method outperforms the
state-of-the-art methods on DG-ReID benchmarks by a large margin.
- Abstract(参考訳): 近年、教師付き人物再識別(ReID)の未確認領域に対する性能が低下しているため、ドメイン一般化(DG)担当者のReIDは、ドメイン非感受性モデルを学び、ドメインバイアスの影響を抑えることを目的とした多くの注目を集めている。
本稿では,まず,スタイル要因がドメインバイアスの重要な部分であることを実験により検証する。
この結論に基づいて,スタイル要因がモデルに与える影響を排除するために,スタイル変数と非関連学習(SVIL)手法を提案する。
具体的には,SVIL でスタイルジッタモジュール (SJM) を設計する。
SJMモジュールは、特定のソースドメインのスタイルの多様性を強化し、様々なソースドメインのスタイルの違いを減らすことができる。
これにより、モデルがアイデンティティ関連情報に注目し、スタイル変更に敏感になる。
さらに,SJMモジュールとメタ学習アルゴリズムを有機的に組み合わせ,利点を最大化し,モデルの一般化能力をさらに向上させる。
私たちのSJMモジュールはプラグ&プレイと推論のコストフリーです。
SVILの有効性を確認し,提案手法はDG-ReIDベンチマークにおける最先端手法よりも高い性能を示す。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Unbiased Faster R-CNN for Single-source Domain Generalized Object Detection [35.71100602593928]
一般化可能な特徴学習のためのUnbiased Faster R-CNN (UFR)を提案する。
具体的には、因果的観点からの物体検出を定式化し、データバイアスとタスクの特徴バイアスを分析する構造因果モデル(SCM)を構築する。
5つの場面における実験結果から,本手法の顕著な一般化能力が示され,ナイトクリアシーンでは3.9%のmAPが向上した。
論文 参考訳(メタデータ) (2024-05-24T05:34:23Z) - DPStyler: Dynamic PromptStyler for Source-Free Domain Generalization [43.67213274161226]
Source-Free Domain Generalization (SFDG) は、ソースドメインに頼ることなく、未確認のターゲットドメインに対して機能するモデルを開発することを目的としている。
SFDGにおける研究は、主に大規模視覚言語モデルの既存の知識に大きく依存している。
本稿では,動的PromptStyler(DPStyler)について紹介する。
論文 参考訳(メタデータ) (2024-03-25T12:31:01Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Style-Hallucinated Dual Consistency Learning: A Unified Framework for
Visual Domain Generalization [113.03189252044773]
本稿では,様々な視覚的タスクにおけるドメインシフトを処理するための統合フレームワークであるStyle-HAllucinated Dual consistEncy Learning (SHADE)を提案する。
我々の汎用SHADEは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、様々な視覚認識タスクにおける一般化を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-18T11:42:51Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Few-shot learning with improved local representations via bias rectify
module [13.230636224045137]
本稿では,特徴表現の構造に存在する空間情報を完全に活用するために,DBRN(Deep Bias Rectify Network)を提案する。
バイアス修正モジュールは、異なる重みを付与することによって、分類においてより差別的な特徴に焦点を合わせることができる。
トレーニングデータを完全に活用するために,我々は,サポートセットから生成されたプロトタイプをより代表的なものにするためのプロトタイプ拡張機構を設計する。
論文 参考訳(メタデータ) (2021-11-01T08:08:00Z) - Style Normalization and Restitution for Generalizable Person
Re-identification [89.482638433932]
我々は、ソースドメイン上でモデルをトレーニングするが、ターゲットドメイン上での一般化や性能をよく行うことのできる、一般化可能な人物ReIDフレームワークを設計する。
本稿では,シンプルで効果的なスタイル正規化・再構成(SNR)モジュールを提案する。
SNRモジュールによって強化された我々のモデルは、複数の広く使われているReIDベンチマークにおいて最先端のドメイン一般化アプローチよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-05-22T07:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。