論文の概要: FedGCA: Global Consistent Augmentation Based Single-Source Federated Domain Generalization
- arxiv url: http://arxiv.org/abs/2409.14671v1
- Date: Mon, 23 Sep 2024 02:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 21:34:58.208322
- Title: FedGCA: Global Consistent Augmentation Based Single-Source Federated Domain Generalization
- Title(参考訳): FedGCA:グローバル一貫性強化に基づく単一ソースフェデレーションドメインの一般化
- Authors: Yuan Liu, Shu Wang, Zhe Qu, Xingyu Li, Shichao Kan, Jianxin Wang,
- Abstract要約: Federated Domain Generalization (FedDG) は、多ドメイントレーニングサンプルでドメインを見落とせるように、グローバルモデルをトレーニングすることを目的としている。
連合学習ネットワークのクライアントは、固有のサンプリングと時間制限のため、単一のIIDドメインに制限されることが多い。
本稿では,FedGCA(Federated Global Consistent Augmentation)法について紹介する。
- 参考スコア(独自算出の注目度): 29.989092118578103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Domain Generalization (FedDG) aims to train the global model for generalization ability to unseen domains with multi-domain training samples. However, clients in federated learning networks are often confined to a single, non-IID domain due to inherent sampling and temporal limitations. The lack of cross-domain interaction and the in-domain divergence impede the learning of domain-common features and limit the effectiveness of existing FedDG, referred to as the single-source FedDG (sFedDG) problem. To address this, we introduce the Federated Global Consistent Augmentation (FedGCA) method, which incorporates a style-complement module to augment data samples with diverse domain styles. To ensure the effective integration of augmented samples, FedGCA employs both global guided semantic consistency and class consistency, mitigating inconsistencies from local semantics within individual clients and classes across multiple clients. The conducted extensive experiments demonstrate the superiority of FedGCA.
- Abstract(参考訳): Federated Domain Generalization (FedDG) は、多ドメイントレーニングサンプルでドメインを見落とせるように、グローバルモデルをトレーニングすることを目的としている。
しかしながら、連合学習ネットワークのクライアントは、固有のサンプリングと時間的制限のため、単一の非IIDドメインに制限されることが多い。
ドメイン間相互作用の欠如とドメイン内分岐はドメイン共通機能の学習を阻害し、単一ソースFedDG(sFedDG)問題と呼ばれる既存のFedDGの有効性を制限する。
そこで本研究では,FedGCA(Federated Global Consistent Augmentation)法について紹介する。
拡張サンプルの効果的な統合を保証するため、FedGCAはグローバルガイド付きセマンティック一貫性とクラス一貫性の両方を使用し、個々のクライアント内のローカルセマンティクスと複数のクライアントにわたるクラスとの一貫性を緩和する。
広範囲にわたる実験により,FedGCAの優位性を実証した。
関連論文リスト
- Learning with Alignments: Tackling the Inter- and Intra-domain Shifts for Cross-multidomain Facial Expression Recognition [16.864390181629044]
本稿では、ドメイン間のシフトとドメイン内シフトの両方を扱うための、LA-CMFERという新しいラーニング・ウィズ・アライメント・CMFERフレームワークを提案する。
これに基づいて、LA-CMFERは、知識伝達におけるハード・トゥ・アライメント・サンプルの優先順位付けをモデルに強制する二重レベル領域間アライメント法を提案する。
ドメイン内シフトに対処するため、LA-CMFERは複数ビューの整合性制約を持つ複数ビューのドメイン内アライメント手法を導入した。
論文 参考訳(メタデータ) (2024-07-08T07:43:06Z) - Federated Unsupervised Domain Generalization using Global and Local Alignment of Gradients [20.38994974049825]
まず、教師なし学習における領域シフトと勾配のアライメントの関係を理論的に確立する。
クライアントレベルとサーバレベルの両方で勾配を整合させることで、モデルの新たな(ターゲット)ドメインへの一般化が容易であることを示す。
我々はFedGaLAという新しい手法を提案し、クライアントレベルで勾配アライメントを行い、クライアントがドメイン不変の機能を学ぶことを奨励する。
論文 参考訳(メタデータ) (2024-05-25T17:12:54Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - Hypernetwork-Driven Model Fusion for Federated Domain Generalization [26.492360039272942]
フェデレートラーニング(FL)は、異種データのドメインシフトにおいて大きな課題に直面します。
非線形アグリゲーションにハイパーネットワークを用いた、ハイパーネットワークベースのフェデレート・フュージョン(hFedF)と呼ばれるロバストなフレームワークを提案する。
本手法では,ドメインの一般化を効果的に管理するために,クライアント固有の埋め込みと勾配アライメント手法を用いる。
論文 参考訳(メタデータ) (2024-02-10T15:42:03Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - HCDG: A Hierarchical Consistency Framework for Domain Generalization on
Medical Image Segmentation [33.623948922908184]
ドメイン一般化のための新しい階層的一貫性フレームワーク(HCDG)を提案する。
Extrinsic Consistencyでは、複数のソースドメインにまたがる知識を活用して、データレベルの一貫性を強制します。
Intrinsic Consistencyでは、デュアルタスクシナリオの下で同じインスタンスに対してタスクレベルの一貫性を実行します。
論文 参考訳(メタデータ) (2021-09-13T07:07:23Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。