論文の概要: Straggler-Resilient Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2206.02078v1
- Date: Sun, 5 Jun 2022 01:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:36:11.368194
- Title: Straggler-Resilient Personalized Federated Learning
- Title(参考訳): ストラグラー・レジリエントな個人化フェデレーション学習
- Authors: Isidoros Tziotis, Zebang Shen, Ramtin Pedarsani, Hamed Hassani and
Aryan Mokhtari
- Abstract要約: フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
- 参考スコア(独自算出の注目度): 55.54344312542944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning is an emerging learning paradigm that allows training
models from samples distributed across a large network of clients while
respecting privacy and communication restrictions. Despite its success,
federated learning faces several challenges related to its decentralized
nature. In this work, we develop a novel algorithmic procedure with theoretical
speedup guarantees that simultaneously handles two of these hurdles, namely (i)
data heterogeneity, i.e., data distributions can vary substantially across
clients, and (ii) system heterogeneity, i.e., the computational power of the
clients could differ significantly. Our method relies on ideas from
representation learning theory to find a global common representation using all
clients' data and learn a user-specific set of parameters leading to a
personalized solution for each client. Furthermore, our method mitigates the
effects of stragglers by adaptively selecting clients based on their
computational characteristics and statistical significance, thus achieving, for
the first time, near optimal sample complexity and provable logarithmic
speedup. Experimental results support our theoretical findings showing the
superiority of our method over alternative personalized federated schemes in
system and data heterogeneous environments.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、プライバシと通信の制限を尊重しながら、クライアントの大きなネットワークに分散したサンプルからモデルをトレーニングする、新たな学習パラダイムである。
その成功にもかかわらず、連合学習はその分散した性質に関するいくつかの課題に直面している。
そこで本研究では,これら2つのハードルを同時に処理する,理論的な高速化を保証した新しいアルゴリズム手法を開発した。
(i)データ異質性、すなわち、データ分布がクライアント間で大きく異なる場合、及び
(ii)システムの不均一性,すなわち,クライアントの計算能力は著しく異なっていた。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
さらに,その計算特性と統計的意義に基づいてクライアントを適応的に選択することにより,ストラグラーの効果を軽減し,サンプル複雑性の最適近似と対数高速化を実現する。
実験結果は,システムおよびデータヘテロジニアス環境において,代替のパーソナライズされたフェデレーションスキームよりも優れた手法を示した。
関連論文リスト
- Heterogeneity-Guided Client Sampling: Towards Fast and Efficient Non-IID Federated Learning [14.866327821524854]
HiCS-FLはサーバがクライアントの出力層を更新してクライアントデータの統計的不均一性を推定する新しいクライアント選択手法である。
非IID設定では、HiCS-FLは最先端のFLクライアント選択方式よりも高速な収束を実現する。
論文 参考訳(メタデータ) (2023-09-30T00:29:30Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。