論文の概要: FedSDAF: Leveraging Source Domain Awareness for Enhanced Federated Domain Generalization
- arxiv url: http://arxiv.org/abs/2505.02515v1
- Date: Mon, 05 May 2025 09:49:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.639014
- Title: FedSDAF: Leveraging Source Domain Awareness for Enhanced Federated Domain Generalization
- Title(参考訳): FedSDAF: 拡張フェデレーションドメイン一般化のためのソースドメイン認識の活用
- Authors: Hongze Li, Zesheng Zhou, Zhenbiao Cao, Xinhui Li, Wei Chen, Xiaojin Zhang,
- Abstract要約: 本稿では,FedSDAF(Federated Source Domain Awareness Framework)を提案する。
FedSDAFフレームワークは2つの相乗的コンポーネントで構成されている。重要なドメイン不変の機能を保持するDomain-Invariant Adapterと、ソースドメイン固有の知識を抽出し統合するDomain-Aware Adapterだ。
標準的な4つのベンチマーク(OfficeHome,PACS,VLCS,DomainNet)において、我々の手法は最先端のフェデレーションドメイン一般化アプローチを一貫して上回り、精度は5.2~13.8%向上した。
- 参考スコア(独自算出の注目度): 9.329514752953525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional domain generalization approaches predominantly focus on leveraging target domain-aware features while overlooking the critical role of source domain-specific characteristics, particularly in federated settings with inherent data isolation. To address this gap, we propose the Federated Source Domain Awareness Framework (FedSDAF), the first method to systematically exploit source domain-aware features for enhanced federated domain generalization (FedDG). The FedSDAF framework consists of two synergistic components: the Domain-Invariant Adapter, which preserves critical domain-invariant features, and the Domain-Aware Adapter, which extracts and integrates source domain-specific knowledge using a Multihead Self-Attention mechanism (MHSA). Furthermore, we introduce a bidirectional knowledge distillation mechanism that fosters knowledge sharing among clients while safeguarding privacy. Our approach represents the first systematic exploitation of source domain-aware features, resulting in significant advancements in model generalization capability.Extensive experiments on four standard benchmarks (OfficeHome, PACS, VLCS, and DomainNet) show that our method consistently surpasses state-of-the-art federated domain generalization approaches, with accuracy gains of 5.2-13.8%. The source code is available at https://github.com/pizzareapers/FedSDAF.
- Abstract(参考訳): 従来のドメインの一般化アプローチは、特に固有のデータ分離を伴うフェデレートされた設定において、ソースドメイン固有の特性の重要な役割を見落としながら、ターゲットのドメイン認識機能を活用することに重点を置いています。
このギャップに対処するため,フェデレーションド・ソース・ドメイン・アウェアネス・フレームワーク (FedSDAF) を提案する。
FedSDAFフレームワークは、2つの相乗的コンポーネントで構成されている: 重要なドメイン不変性を保存するDomain-Invariant Adapterと、MHSA(Multihead Self-Attention Mechanism)を使用してソースドメイン固有の知識を抽出し統合するDomain-Aware Adapterである。
さらに,プライバシ保護を図りながら,クライアント間の知識共有を促進する双方向の知識蒸留機構を導入する。
提案手法は,4つの標準ベンチマーク(OfficeHome,PACS,VLCS,DomainNet)において,提案手法が最先端のフェデレーションドメイン一般化アプローチを一貫して上回り,精度が5.2~13.8%向上したことを示す。
ソースコードはhttps://github.com/pizzareapers/FedSDAFで入手できる。
関連論文リスト
- FedGCA: Global Consistent Augmentation Based Single-Source Federated Domain Generalization [29.989092118578103]
Federated Domain Generalization (FedDG) は、多ドメイントレーニングサンプルでドメインを見落とせるように、グローバルモデルをトレーニングすることを目的としている。
連合学習ネットワークのクライアントは、固有のサンプリングと時間制限のため、単一のIIDドメインに制限されることが多い。
本稿では,FedGCA(Federated Global Consistent Augmentation)法について紹介する。
論文 参考訳(メタデータ) (2024-09-23T02:24:46Z) - MetaDefa: Meta-learning based on Domain Enhancement and Feature
Alignment for Single Domain Generalization [12.095382249996032]
モデル一般化性能を改善するために,ドメイン拡張と特徴アライメント(MetaDefa)に基づくメタラーニング手法を提案する。
本稿では、ソース領域と拡張領域の機能空間間の類似のターゲット領域に着目し、ドメイン不変性について検討する。
公開された2つのデータセットに対する大規模な実験により、MetaDefaは未知の複数のターゲットドメインにおいて、大きな一般化パフォーマンスのアドバンテージを持つことが示された。
論文 参考訳(メタデータ) (2023-11-27T15:13:02Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Exploiting Domain-Specific Features to Enhance Domain Generalization [10.774902700296249]
ドメイン一般化(Domain Generalization, DG)は、観測されていないターゲットドメインで正常に動作するために、複数の観測されたソースドメインからモデルをトレーニングすることを目的としている。
以前のDGアプローチでは、ターゲットドメインを一般化するために、ソース間でのドメイン不変情報を抽出することに重点を置いていた。
本稿ではメタドメイン固有ドメイン不変量(mD)を提案する。
論文 参考訳(メタデータ) (2021-10-18T15:42:39Z) - Dynamically Decoding Source Domain Knowledge For Unseen Domain
Generalization [8.106918528575267]
本稿では,ドメイン一般化のためのソースドメイン知識を動的に復号化するためにトランスフォーマーを適用することを提案する。
提案手法は,領域一般化分野の3つのベンチマークで評価する。
最先端手法との比較により,提案手法が最高の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-10-06T19:21:24Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Unsupervised Sentiment Analysis by Transferring Multi-source Knowledge [22.880509132587807]
感情分析のための2段階のドメイン適応フレームワークを提案する。
最初の段階では、マルチタスクの方法論に基づく共有プライベートアーキテクチャを使用して、ドメイン共通機能を明示的にモデル化する。
第2段階では、複数のソースドメインから知識を転送するために、共有プライベートアーキテクチャに2つの精巧なメカニズムが組み込まれています。
論文 参考訳(メタデータ) (2021-05-09T03:02:19Z) - Adaptive Domain-Specific Normalization for Generalizable Person
Re-Identification [81.30327016286009]
一般化可能なRe-IDのための適応型ドメイン固有正規化手法(AdsNorm)を提案する。
本研究では,一般化可能人物 Re-ID に対する適応領域特異的正規化手法 (AdsNorm) を提案する。
論文 参考訳(メタデータ) (2021-05-07T02:54:55Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Domain Adaptive Ensemble Learning [141.98192460069765]
両問題に対処するため,ドメイン適応アンサンブル学習(DAEL)という統合フレームワークを提案する。
3つのマルチソースUDAデータセットと2つのDGデータセットの実験により、DAELは両方の問題、しばしば大きなマージンによって、技術の状態を改善することが示された。
論文 参考訳(メタデータ) (2020-03-16T16:54:15Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。