論文の概要: DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2308.08290v1
- Date: Wed, 16 Aug 2023 11:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:43:45.752956
- Title: DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning
- Title(参考訳): dfedadmm: 分散連合学習のための2重制約制御モデル不整合
- Authors: Qinglun Li, Li Shen, Guanghao Li, Quanjun Yin, Dacheng Tao
- Abstract要約: 分散学習(DFL)は、中央サーバーを捨て、分散通信ネットワークを確立する。
既存のDFL手法は依然として、局所的な矛盾と局所的な過度なオーバーフィッティングという2つの大きな課題に悩まされている。
- 参考スコア(独自算出の注目度): 52.83811558753284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the communication burden issues associated with federated learning
(FL), decentralized federated learning (DFL) discards the central server and
establishes a decentralized communication network, where each client
communicates only with neighboring clients. However, existing DFL methods still
suffer from two major challenges: local inconsistency and local heterogeneous
overfitting, which have not been fundamentally addressed by existing DFL
methods. To tackle these issues, we propose novel DFL algorithms, DFedADMM and
its enhanced version DFedADMM-SAM, to enhance the performance of DFL. The
DFedADMM algorithm employs primal-dual optimization (ADMM) by utilizing dual
variables to control the model inconsistency raised from the decentralized
heterogeneous data distributions. The DFedADMM-SAM algorithm further improves
on DFedADMM by employing a Sharpness-Aware Minimization (SAM) optimizer, which
uses gradient perturbations to generate locally flat models and searches for
models with uniformly low loss values to mitigate local heterogeneous
overfitting. Theoretically, we derive convergence rates of $\small
\mathcal{O}\Big(\frac{1}{\sqrt{KT}}+\frac{1}{KT(1-\psi)^2}\Big)$ and $\small
\mathcal{O}\Big(\frac{1}{\sqrt{KT}}+\frac{1}{KT(1-\psi)^2}+
\frac{1}{T^{3/2}K^{1/2}}\Big)$ in the non-convex setting for DFedADMM and
DFedADMM-SAM, respectively, where $1 - \psi$ represents the spectral gap of the
gossip matrix. Empirically, extensive experiments on MNIST, CIFAR10 and
CIFAR100 datesets demonstrate that our algorithms exhibit superior performance
in terms of both generalization and convergence speed compared to existing
state-of-the-art (SOTA) optimizers in DFL.
- Abstract(参考訳): 連合学習(fl)に関連する通信負担問題に対処するため、分散連合学習(dfl)は中央サーバを破棄し、各クライアントが隣のクライアントとのみ通信する分散通信ネットワークを構築する。
しかし、既存のDFL法は、局所的不整合と局所的不均一なオーバーフィッティングという2つの大きな課題に悩まされている。
これらの課題に対処するため、新しいDFLアルゴリズムDFedADMMとその拡張版DFedADMM-SAMを提案し、DFLの性能を向上させる。
DFedADMMアルゴリズムは、分散化された不均一なデータ分布から生じるモデル不整合を制御するために、双対変数を利用する原始双対最適化(ADMM)を用いる。
DFedADMM-SAMアルゴリズムは、局所的に平坦なモデルを生成するために勾配摂動を用いて局所的な不均一なオーバーフィッティングを緩和するシャープネス・アウェア最小化(SAM)オプティマイザを用いて、DFedADMMをさらに改善する。
理論的には、$\small \mathcal{O}\Big(\frac{1}{\sqrt{KT}}+\frac{1}{KT(1-\psi)^2}\Big)$と$\small \mathcal{O}\Big(\frac{1}{\sqrt{KT}}+\frac{1}{KT(1-\psi)^2}+ \frac{1}{T^{3/2}K^{1/2}}\Big)$の収束率をDFedADMMとDFedADMM-SAMの非凸設定で導出する。
MNIST, CIFAR10, CIFAR100ラテセットの広範な実験により, このアルゴリズムはDFLの既存のSOTAオプティマイザと比較して, 一般化と収束速度の両方において優れた性能を示した。
関連論文リスト
- Byzantine-resilient Federated Learning Employing Normalized Gradients on Non-IID Datasets [23.640506243685863]
実践的連合学習(FLNGA)では、悪意のある攻撃やデータ不均一性の存在が学習プロセスにバイアスをもたらすことが多い。
本稿では、アップロードされた局所勾配をアグリゲーションの前に正規化する正規化勾配単位(Fed-M)モデルを提案し、$mathcalO(pM)$を達成した。
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - Asymmetrically Decentralized Federated Learning [22.21977974314497]
分散フェデレーションラーニング(DFL)が出現し、ピアツーピア(P2P)通信フレームワークでサーバを破棄する。
本稿では,非対称トポロジに基づくPush-Awareプロトコルを用いたDFedSGPSMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-08T09:46:26Z) - Improving the Model Consistency of Decentralized Federated Learning [68.2795379609854]
フェデレートラーニング(FL)は中央サーバーを捨て、各クライアントは、分散化された通信ネットワークで隣人とのみ通信する。
既存のDFLは、ローカルクライアント間の不整合に悩まされ、FLFLに比べて劣る。
DFedSAMMGSを提案する。1lambda$はスペクトルゴシップ行列であり、$Q$はスパースデータギャップの数である。
論文 参考訳(メタデータ) (2023-02-08T14:37:34Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - On the Convergence of Heterogeneous Federated Learning with Arbitrary
Adaptive Online Model Pruning [15.300983585090794]
任意適応型オンラインモデルプルーニングを用いた異種FLアルゴリズムの一元化フレームワークを提案する。
特に、ある十分な条件下では、これらのアルゴリズムは一般的なスムーズなコスト関数に対して標準FLの定常点に収束する。
コンバージェンスに影響を与える2つの要因として,プルーニング誘導雑音と最小カバレッジ指数を照らす。
論文 参考訳(メタデータ) (2022-01-27T20:43:38Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - FedLGA: Towards System-Heterogeneity of Federated Learning via Local
Gradient Approximation [21.63719641718363]
システム不均一なFL問題を定式化してFedLGAと呼ばれる新しいアルゴリズムを提案する。
複数のデータセットに対する総合的な実験の結果、FedLGAはシステム不均一性に対して現在のFLベンチマークよりも優れていた。
論文 参考訳(メタデータ) (2021-12-22T16:05:09Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。