論文の概要: Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training
- arxiv url: http://arxiv.org/abs/2305.15157v1
- Date: Wed, 24 May 2023 13:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:27:58.625125
- Title: Towards More Suitable Personalization in Federated Learning via
Decentralized Partial Model Training
- Title(参考訳): 分散部分モデル学習による連合学習におけるより適切なパーソナライズに向けて
- Authors: Yifan Shi, Yingqi Liu, Yan Sun, Zihao Lin, Li Shen, Xueqian Wang,
Dacheng Tao
- Abstract要約: 既存のシステムのほとんどは、中央のFLサーバが失敗した場合、大きな通信負荷に直面しなければならない。
共有パラメータと個人パラメータを交互に更新することで、ディープモデルの「右」をパーソナライズする。
共有パラメータアグリゲーションプロセスをさらに促進するために、ローカルシャープネス最小化を統合するDFedを提案する。
- 参考スコア(独自算出の注目度): 67.67045085186797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized federated learning (PFL) aims to produce the greatest
personalized model for each client to face an insurmountable problem--data
heterogeneity in real FL systems. However, almost all existing works have to
face large communication burdens and the risk of disruption if the central
server fails. Only limited efforts have been used in a decentralized way but
still suffers from inferior representation ability due to sharing the full
model with its neighbors. Therefore, in this paper, we propose a personalized
FL framework with a decentralized partial model training called DFedAlt. It
personalizes the "right" components in the modern deep models by alternately
updating the shared and personal parameters to train partially personalized
models in a peer-to-peer manner. To further promote the shared parameters
aggregation process, we propose DFedSalt integrating the local Sharpness Aware
Minimization (SAM) optimizer to update the shared parameters. It adds proper
perturbation in the direction of the gradient to overcome the shared model
inconsistency across clients. Theoretically, we provide convergence analysis of
both algorithms in the general non-convex setting for decentralized partial
model training in PFL. Our experiments on several real-world data with various
data partition settings demonstrate that (i) decentralized training is more
suitable for partial personalization, which results in state-of-the-art (SOTA)
accuracy compared with the SOTA PFL baselines; (ii) the shared parameters with
proper perturbation make partial personalized FL more suitable for
decentralized training, where DFedSalt achieves most competitive performance.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、実際のFLシステムにおけるデータ不均一性(data heterogeneity)に直面する問題に対して、各クライアントが最大のパーソナライズド・モデルを作成することを目的としている。
しかし、既存の作業のほとんどは、中央サーバが失敗した場合、大きな通信負荷と破壊のリスクに直面する必要がある。
限定的な努力だけが分散的な方法で使われてきたが、全てのモデルを隣人と共有することによる表現能力の低下に苦しめられている。
そこで本稿では,DFedAlt と呼ばれる分散部分モデルトレーニングによるパーソナライズされたFLフレームワークを提案する。
ピアツーピアで部分的にパーソナライズされたモデルをトレーニングするために、共有パラメータと個人パラメータを交互に更新することで、現代のディープモデルの「右」コンポーネントをパーソナライズする。
共有パラメータ集約プロセスをさらに促進するために、共有パラメータを更新するためのローカルシャープネス認識最小化(SAM)オプティマイザを統合するDFedSaltを提案する。
クライアント間の共有モデルの不整合を克服するために、勾配の方向に適切な摂動を追加する。
理論的には、pflにおける分散部分モデルトレーニングのための一般的な非凸設定における両アルゴリズムの収束解析を提供する。
様々なデータ分割設定を用いた実世界データ実験の結果
(i)分権訓練は部分的パーソナライズに適しており、SOTA PFLベースラインと比較して最先端(SOTA)の精度が高い。
(i)適切な摂動を持つ共有パラメータは、DFedSaltが最も競争力を発揮する分散トレーニングに適した部分的パーソナライズされたFLとなる。
関連論文リスト
- FedSPD: A Soft-clustering Approach for Personalized Decentralized Federated Learning [18.38030098837294]
フェデレーション学習は、分散クライアントがローカルデータを使用して機械学習モデルを協調的にトレーニングするためのフレームワークである。
分散環境のための効率的パーソナライズされたフェデレーション学習アルゴリズムであるFedSPDを提案する。
低接続性ネットワークにおいてもFedSPDが正確なモデルを学ぶことを示す。
論文 参考訳(メタデータ) (2024-10-24T15:48:34Z) - Decentralized Directed Collaboration for Personalized Federated Learning [39.29794569421094]
我々は分散トレーニングモデル計算を行う分散パーソナライズドラーニング(DPFL)に集中する。
我々は, textbfDecentralized textbfFederated textbfPartial textbfGradient textbfPedGP を組み込んだ協調型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T06:52:19Z) - Federated Deep Equilibrium Learning: Harnessing Compact Global Representations to Enhance Personalization [23.340237814344377]
Federated Learning(FL)は、クライアントがデータを交換することなくグローバルモデルを協調的にトレーニングできる、画期的な分散学習パラダイムとして登場した。
FeDEQは,高効率なパーソナライズのために,コンパクトなグローバルデータ表現を利用するために,深い平衡学習とコンセンサス最適化を取り入れた新しいFLフレームワークである。
FeDEQは,訓練中の通信サイズを最大4倍,メモリフットプリントを1.5倍に削減しつつ,最先端のパーソナライズされたFL法の性能に適合することを示した。
論文 参考訳(メタデータ) (2023-09-27T13:48:12Z) - Group Personalized Federated Learning [15.09115201646396]
フェデレートラーニング(FL)は、クライアントの物理デバイス上で分散的な方法で共有モデルをトレーニングすることで、データのプライバシを促進するのに役立つ。
本稿では,FLの応用に向けたグループパーソナライズ手法を提案する。
論文 参考訳(メタデータ) (2022-10-04T19:20:19Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。