論文の概要: Positive Style Accumulation: A Style Screening and Continuous Utilization Framework for Federated DG-ReID
- arxiv url: http://arxiv.org/abs/2507.16238v1
- Date: Tue, 22 Jul 2025 05:21:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.97249
- Title: Positive Style Accumulation: A Style Screening and Continuous Utilization Framework for Federated DG-ReID
- Title(参考訳): 正のスタイル蓄積:フェデレーションDG-ReIDのためのスタイルスクリーニングと継続的利用フレームワーク
- Authors: Xin Xu, Chaoyue Ren, Wei Liu, Wenke Huang, Bin Yang, Zhixi Yu, Kui Jiang,
- Abstract要約: FedDG-ReIDは、分散ソースドメインデータを通じて、効果的にソースとターゲットドメインに一般化できるグローバルサーバモデルを学ぶことを目的としている。
既存の手法は主にスタイル変換によるサンプルの多様性を改善する。
我々は,モデルの一般化性能に有益で有害なスタイルを,肯定的あるいは否定的なスタイルとして定義する。
- 参考スコア(独自算出の注目度): 25.60095835928136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Federated Domain Generalization for Person re-identification (FedDG-ReID) aims to learn a global server model that can be effectively generalized to source and target domains through distributed source domain data. Existing methods mainly improve the diversity of samples through style transformation, which to some extent enhances the generalization performance of the model. However, we discover that not all styles contribute to the generalization performance. Therefore, we define styles that are beneficial or harmful to the model's generalization performance as positive or negative styles. Based on this, new issues arise: How to effectively screen and continuously utilize the positive styles. To solve these problems, we propose a Style Screening and Continuous Utilization (SSCU) framework. Firstly, we design a Generalization Gain-guided Dynamic Style Memory (GGDSM) for each client model to screen and accumulate generated positive styles. Meanwhile, we propose a style memory recognition loss to fully leverage the positive styles memorized by Memory. Furthermore, we propose a Collaborative Style Training (CST) strategy to make full use of positive styles. Unlike traditional learning strategies, our approach leverages both newly generated styles and the accumulated positive styles stored in memory to train client models on two distinct branches. This training strategy is designed to effectively promote the rapid acquisition of new styles by the client models, and guarantees the continuous and thorough utilization of positive styles, which is highly beneficial for the model's generalization performance. Extensive experimental results demonstrate that our method outperforms existing methods in both the source domain and the target domain.
- Abstract(参考訳): Federated Domain Generalization for Person Re-identification (FedDG-ReID)は、分散ソースドメインデータを通じて、効果的にソースドメインとターゲットドメインに一般化可能なグローバルサーバモデルを学ぶことを目的としている。
既存の手法は主にスタイル変換によるサンプルの多様性を改善し、モデルの一般化性能をある程度向上させる。
しかし、全てのスタイルが一般化性能に寄与するわけではないことが判明した。
そこで本研究では,モデルの一般化性能に有益あるいは有害なスタイルを,肯定的あるいは否定的なスタイルとして定義する。
ポジティブなスタイルを効果的にスクリーニングし、継続的に活用する方法。
これらの問題を解決するために,我々はスタイルスクリーニングと継続的利用(SSCU)フレームワークを提案する。
まず,一般化ゲイン誘導動的スタイルメモリ(GGDSM)を設計し,各クライアントモデルが生成したポジティブなスタイルをスクリーニングし,蓄積する。
一方,メモリが記憶する正のスタイルを完全に活用するスタイル記憶損失を提案する。
さらに,ポジティブなスタイルをフル活用するための協調型スタイルトレーニング(CST)戦略を提案する。
従来の学習戦略とは異なり、我々のアプローチは新しく生成されたスタイルとメモリに蓄積された肯定的なスタイルの両方を利用して、2つの異なるブランチでクライアントモデルを訓練する。
このトレーニング戦略は、クライアントモデルによる新しいスタイルの迅速な獲得を効果的に促進し、正のスタイルを連続的かつ徹底的に活用することを保証し、モデルの一般化性能に非常に有益である。
実験結果から,本手法はソースドメインとターゲットドメインの両方において既存手法よりも優れていることが示された。
関連論文リスト
- Style Evolving along Chain-of-Thought for Unknown-Domain Object Detection [35.35239718038119]
単ドメイン汎用物体検出(Single-DGOD)の課題は、トレーニング中に見たことのない複数の未知領域に検出器を一般化することを目的としている。
そこで我々は,思考の連鎖に沿ったスタイル情報を段階的に統合し,拡張することを目的とした,スタイル進化という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-13T02:14:10Z) - Style-Pro: Style-Guided Prompt Learning for Generalizable Vision-Language Models [5.492174268132387]
Style-Proは、CLIPのゼロショット一般化能力を緩和し、保存する新しいプロンプト学習フレームワークである。
Style-Proは、ベース・ツー・ニューの一般化、クロス・データセットの転送、ドメインの一般化など、さまざまな設定における最先端のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2024-11-25T00:20:53Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Federated Domain Generalization for Image Recognition via Cross-Client
Style Transfer [60.70102634957392]
ドメイン一般化(Domain Generalization, DG)は、画像認識においてホットなトピックであり、目に見えないドメインでうまく機能する一般的なモデルを訓練することを目的としている。
本稿では,データサンプルを交換することなく,クロスクライアント型転送(CCST)による画像認識のための新しい領域一般化手法を提案する。
本手法は2つのDGベンチマーク(PACS, OfficeHome)とFL設定における大規模医用画像データセット(Camelyon17)において,最近のSOTA DG法より優れている。
論文 参考訳(メタデータ) (2022-10-03T13:15:55Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Feature-based Style Randomization for Domain Generalization [27.15070576861912]
ドメイン一般化(Domain Generalization、DG)は、まず複数のソースドメイン上のジェネリックモデルを学習し、その後、追加の適応なしに任意の未確認ターゲットドメインに直接一般化することを目的としている。
本稿では,機能レベルの拡張を実現するために,シンプルだが効果的な特徴ベーススタイルのランダム化モジュールを開発する。
既存の画像レベルの拡張と比較して、我々の特徴レベルの拡張は、よりゴール指向でサンプルの多様性のある方法を好む。
論文 参考訳(メタデータ) (2021-06-06T16:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。