論文の概要: FedFusion: Federated Learning with Diversity- and Cluster-Aware Encoders for Robust Adaptation under Label Scarcity
- arxiv url: http://arxiv.org/abs/2509.19220v1
- Date: Tue, 23 Sep 2025 16:46:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.954665
- Title: FedFusion: Federated Learning with Diversity- and Cluster-Aware Encoders for Robust Adaptation under Label Scarcity
- Title(参考訳): FedFusion:ラベルスカルシティ下でのロバスト適応のための多様性とクラスタ対応エンコーダによるフェデレーションラーニング
- Authors: Ferdinand Kahenga, Antoine Bagula, Patrick Sello, Sajal K. Das,
- Abstract要約: FedFusionは、ドメイン適応とフラゲラベリングを統合する、フェデレートされたトランスファーラーニングフレームワークである。
遅延教師クライアントは、信頼度フィルタリングされた擬似ラベルとドメイン適応転送を通じて学習者クライアントをガイドする。
FedFusionは、常に最先端のベースライン、正確性、堅牢性、公正性を上回っている。
- 参考スコア(独自算出の注目度): 33.17279604575767
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated learning in practice must contend with heterogeneous feature spaces, severe non-IID data, and scarce labels across clients. We present FedFusion, a federated transfer-learning framework that unifies domain adaptation and frugal labelling with diversity-/cluster-aware encoders (DivEn, DivEn-mix, DivEn-c). Labelled teacher clients guide learner clients via confidence-filtered pseudo-labels and domain-adaptive transfer, while clients maintain personalised encoders tailored to local data. To preserve global coherence under heterogeneity, FedFusion employs similarity-weighted classifier coupling (with optional cluster-wise averaging), mitigating dominance by data-rich sites and improving minority-client performance. The frugal-labelling pipeline combines self-/semi-supervised pretext training with selective fine-tuning, reducing annotation demands without sharing raw data. Across tabular and imaging benchmarks under IID, non-IID, and label-scarce regimes, FedFusion consistently outperforms state-of-the-art baselines in accuracy, robustness, and fairness while maintaining comparable communication and computation budgets. These results show that harmonising personalisation, domain adaptation, and label efficiency is an effective recipe for robust federated learning under real-world constraints.
- Abstract(参考訳): フェデレートされた学習は、異質な特徴空間、重い非IIDデータ、クライアント間のラベル不足と競合しなければならない。
本稿では,フェデレーション学習フレームワークであるFedFusionについて,多様性を意識したエンコーダ(DivEn,DivEn-mix,DivEn-c)を用いて,ドメイン適応とフラガルラベルを統一する。
教師のクライアントは、信頼度フィルタリングされた擬似ラベルとドメイン適応転送を通じて学習者のクライアントを誘導する一方、クライアントはローカルデータに合わせたパーソナライズされたエンコーダを維持している。
不均一性の下でグローバルなコヒーレンスを維持するため、FedFusionは類似度重み付けの分類器結合(オプションでクラスタ平均化)を採用し、データリッチなサイトによる優位性を緩和し、マイノリティ・クライアントのパフォーマンスを向上させる。
frugal-labellingパイプラインは、自己/半教師付きプレテキストトレーニングと選択的微調整を組み合わせることで、生データを共有せずにアノテーション要求を減らす。
IID、非IID、ラベルスカース体制の下でのグラフと画像のベンチマーク全体において、FedFusionは、同等の通信と計算予算を維持しながら、最先端のベースライン、堅牢性、公正性を一貫して上回っている。
これらの結果は、個人化、ドメイン適応、ラベル効率の調和が、実世界の制約下での堅牢な連合学習の効果的なレシピであることを示している。
関連論文リスト
- Federated Contrastive Learning for Personalized Semantic Communication [55.46383524190467]
我々は,パーソナライズされたセマンティックコミュニケーションを支援することを目的とした,協調型コントラスト学習フレームワークを設計する。
FedCLは、複数のクライアントにわたるローカルセマンティックエンコーダと、基地局が所有するグローバルセマンティックデコーダの協調トレーニングを可能にする。
分散クライアント間の異種データセットから生じるセマンティック不均衡問題に対処するために,コントラスト学習を用いてセマンティックセントロイドジェネレータを訓練する。
論文 参考訳(メタデータ) (2024-06-13T14:45:35Z) - FedCoSR: Personalized Federated Learning with Contrastive Shareable Representations for Label Heterogeneity in Non-IID Data [11.389706928654965]
本稿では,FedCoSR(Federated Contrastive Shareable Representations)という新しい個人学習アルゴリズムを提案する。
ローカルモデルの浅い層と典型的なローカル表現のパラメータは、どちらもサーバの共有可能な情報であると考えられている。
クライアント間でのラベル分布スキューによる性能劣化に対処するため、局所表現とグローバル表現の対比学習を採用する。
論文 参考訳(メタデータ) (2024-04-27T14:05:18Z) - FedAnchor: Enhancing Federated Semi-Supervised Learning with Label
Contrastive Loss for Unlabeled Clients [19.3885479917635]
Federated Learning(FL)は、デバイス間で共有されたグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
本稿では,サーバ上のラベル付きアンカーデータにのみ訓練された分類ヘッドと組み合わせて,アンカーヘッドと呼ばれるユニークな二重ヘッド構造を導入する,革新的なFSSL手法であるFedAnchorを提案する。
提案手法は, 高信頼度モデル予測サンプルに基づいて, 疑似ラベル技術に係わる検証バイアスと過度に適合する問題を緩和する。
論文 参考訳(メタデータ) (2024-02-15T18:48:21Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - FedFA: Federated Learning with Feature Anchors to Align Features and
Classifiers for Heterogeneous Data [8.677832361022809]
フェデレーション学習は、複数のクライアントがデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
一般的な解決策は、局所訓練中に体重のばらつきや特徴の不整合を規則化する補助的な損失を含む。
我々はFederated Learning with Feature Anchors (FedFA)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-17T02:27:44Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。