論文の概要: FedCL: Federated Multi-Phase Curriculum Learning to Synchronously
Correlate User Heterogeneity
- arxiv url: http://arxiv.org/abs/2211.07248v1
- Date: Mon, 14 Nov 2022 10:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:08:00.129596
- Title: FedCL: Federated Multi-Phase Curriculum Learning to Synchronously
Correlate User Heterogeneity
- Title(参考訳): FedCL: ユーザ不均一性を同期的に相関させる多相学習
- Authors: Mingjie Wang, Jianxiong Guo, Weijia Jia
- Abstract要約: フェデレートラーニング(FL)におけるユーザ不均一性の課題を解決するための,アクティブかつ同期的な相関手法を提案する。
グローバルカリキュラムは、自己回帰型オートエンコーダによって、サーバ上のすべてのユーザカリキュラムをアンサンブルし、その後、グローバルカリキュラムを複数のフェーズに分割して、ユーザに放送して、ドメインに依存しない学習ペースを測定し、調整する。
- 参考スコア(独自算出の注目度): 17.532659808426605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a new decentralized learning used for training
machine learning algorithms where a global model iteratively gathers the
parameters of local models but does not access their local data. A key
challenge in FL is to handle the heterogeneity of local data distribution,
resulting in a drifted global model, which is hard to converge. To cope with
this challenge, current methods adopt different strategies like knowledge
distillation, weighted model aggregation, and multi-task learning, as
regulation. We refer to these approaches as asynchronous FL since they align
user models in either a local or post-hoc manner where model drift has already
happened or has been underestimated. In this paper, we propose an active and
synchronous correlation approach to solve the challenge of user heterogeneity
in FL. Specifically, we aim to approximate FL as the standard deep learning by
actively and synchronously scheduling user learning pace in each round with a
dynamic multi-phase curriculum. A global curriculum ensembles all user
curriculum on its server by the auto-regressive auto-encoder. Then the global
curriculum is divided into multiple phases and broadcast to users to measure
and align the domain-agnostic learning pace. Empirical studies demonstrate that
our approach equips FL with state-of-the-art generalization performance over
existing asynchronous approaches, even facing severe user heterogeneity.
- Abstract(参考訳): Federated Learning(FL)は、グローバルモデルがローカルモデルのパラメータを反復的に収集するが、ローカルデータにアクセスしない機械学習アルゴリズムのトレーニングに使用される、新たな分散学習である。
FLの重要な課題は、局所的なデータ分布の不均一性を扱うことである。
この課題に対処するため、現在の手法では、知識蒸留、重み付けモデル集約、マルチタスク学習といった異なる戦略を規制として採用している。
モデルドリフトが既に発生または過小評価されている、ローカルまたはポストホックな方法でユーザモデルをアライメントするため、これらのアプローチを非同期FLと呼んでいる。
本稿では,FLにおけるユーザ不均一性の課題を解決するための,アクティブかつ同期的な相関手法を提案する。
具体的には,各ラウンドのユーザ学習ペースを動的多相カリキュラムでアクティブかつ同期的にスケジューリングすることで,FLを標準ディープラーニングとして近似することを目的とする。
グローバルカリキュラムは、自己回帰オートエンコーダによってサーバ上の全ユーザーカリキュラムをアンサンブルする。
次に、グローバルカリキュラムを複数のフェーズに分割し、ユーザに対して、ドメインに依存しない学習ペースの測定と調整を行う。
実験により,本手法は,ユーザの不均一性に直面する場合さえも,既存の非同期アプローチに対して,最先端の一般化性能とFLを併用することを示した。
関連論文リスト
- FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Multi-level Personalized Federated Learning on Heterogeneous and Long-Tailed Data [10.64629029156029]
マルチレベル・パーソナライズド・フェデレーション・ラーニング(MuPFL)という革新的パーソナライズド・パーソナライズド・ラーニング・フレームワークを導入する。
MuPFLは3つの重要なモジュールを統合している: Biased Activation Value Dropout (BAVD), Adaptive Cluster-based Model Update (ACMU), Prior Knowledge-assisted Fine-tuning (PKCF)。
様々な実世界のデータセットの実験では、MuPFLは極端に非i.d.と長い尾の条件下であっても、最先端のベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2024-05-10T11:52:53Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - Data-Free Knowledge Distillation for Heterogeneous Federated Learning [31.364314540525218]
Federated Learning(FL)は、グローバルサーバがデータにアクセスせずに、ローカルユーザのモデルパラメータを反復的に平均する分散機械学習パラダイムである。
知識蒸留(Knowledge Distillation)は、異種ユーザからの集約された知識を使用してサーバモデルを精錬することによって、この問題に対処するために最近登場した。
異種FLに対処するデータフリーな知識蒸留手法を提案し,サーバはユーザ情報をデータフリーでアンサンブルするための軽量なジェネレータを学習する。
論文 参考訳(メタデータ) (2021-05-20T22:30:45Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。