論文の概要: Closing the Gap between Client and Global Model Performance in
Heterogeneous Federated Learning
- arxiv url: http://arxiv.org/abs/2211.03457v1
- Date: Mon, 7 Nov 2022 11:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:05:50.311403
- Title: Closing the Gap between Client and Global Model Performance in
Heterogeneous Federated Learning
- Title(参考訳): ヘテロジニアスフェデレーション学習におけるクライアントとグローバルモデルのパフォーマンスのギャップを埋める
- Authors: Hongrui Shi, Valentin Radu, Po Yang
- Abstract要約: カスタムクライアントモデルをトレーニングするための選択されたアプローチが、グローバルモデルにどのように影響するかを示す。
KDとLwoF(LwoF)を併用して、改良されたパーソナライズドモデルを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 2.1044900734651626
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The heterogeneity of hardware and data is a well-known and studied problem in
the community of Federated Learning (FL) as running under heterogeneous
settings. Recently, custom-size client models trained with Knowledge
Distillation (KD) has emerged as a viable strategy for tackling the
heterogeneity challenge. However, previous efforts in this direction are aimed
at client model tuning rather than their impact onto the knowledge aggregation
of the global model. Despite performance of global models being the primary
objective of FL systems, under heterogeneous settings client models have
received more attention. Here, we provide more insights into how the chosen
approach for training custom client models has an impact on the global model,
which is essential for any FL application. We show the global model can fully
leverage the strength of KD with heterogeneous data. Driven by empirical
observations, we further propose a new approach that combines KD and Learning
without Forgetting (LwoF) to produce improved personalised models. We bring
heterogeneous FL on pair with the mighty FedAvg of homogeneous FL, in realistic
deployment scenarios with dropping clients.
- Abstract(参考訳): ハードウェアとデータの異質性は、ヘテロジニアスな環境で動作しているフェデレーション学習(fl)コミュニティでよく知られ、研究されている問題である。
近年、知識蒸留(KD)で訓練されたカスタムサイズのクライアントモデルが、異種性問題に取り組むための実行可能な戦略として登場した。
しかし、この方向のこれまでの取り組みは、グローバルモデルの知識集約に対する影響よりも、クライアントモデルチューニングを目標としている。
flシステムの主な目的はグローバルモデルの性能であるにもかかわらず、異種設定下ではクライアントモデルの方が注目されている。
ここでは、カスタムクライアントモデルをトレーニングするための選択されたアプローチがグローバルモデルにどのように影響するかについて、より深い洞察を提供する。
我々は,グローバルモデルが異種データを用いたkdの強みを十分に活用できることを示す。
さらに、経験的観察により、KDとLwoF(LwoF)を併用して、改良されたパーソナライズドモデルを生成する新しいアプローチを提案する。
我々は、クライアントを落として現実的な配置シナリオにおいて、異種FLを、同種FLの強大なFedAvgと組み合わせて導入する。
関連論文リスト
- Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Enhancing One-Shot Federated Learning Through Data and Ensemble
Co-Boosting [76.64235084279292]
ワンショットフェデレートラーニング(One-shot Federated Learning, OFL)は,単一のコミュニケーションラウンドを通じてグローバルサーバモデルのトレーニングを可能にする,有望な学習パラダイムである。
合成されたデータとアンサンブルモデルを相互に拡張する新しいフレームワークであるCo-Boostingを導入する。
論文 参考訳(メタデータ) (2024-02-23T03:15:10Z) - FedImpro: Measuring and Improving Client Update in Federated Learning [77.68805026788836]
フェデレートラーニング(FL)モデルは、不均一なデータによって引き起こされるクライアントのドリフトを経験することが多い。
我々は、クライアントのドリフトに対する別の視点を示し、改善されたローカルモデルを生成することにより、それを緩和することを目指している。
論文 参考訳(メタデータ) (2024-02-10T18:14:57Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Confidence-aware Personalized Federated Learning via Variational
Expectation Maximization [34.354154518009956]
パーソナライズド・フェデレーション・ラーニング(PFL)のための新しいフレームワークを提案する。
PFLは、クライアント間で共有モデルをトレーニングする分散学習スキームである。
階層的モデリングと変分推論に基づくPFLの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T20:12:27Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。