論文の概要: FedADMM: A Federated Primal-Dual Algorithm Allowing Partial
Participation
- arxiv url: http://arxiv.org/abs/2203.15104v1
- Date: Mon, 28 Mar 2022 21:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 17:09:59.218445
- Title: FedADMM: A Federated Primal-Dual Algorithm Allowing Partial
Participation
- Title(参考訳): FedADMM: 部分的に参加可能なフェデレーションプリマルデュアルアルゴリズム
- Authors: Han Wang, Siddartha Marella, James Anderson
- Abstract要約: 特に、クライアントサーバのブロードキャストモデルに従っており、特にクライアントの計算とストレージに対応する能力に魅力があります。
我々の貢献は、非滑らかな複合問題を解くための新しいフェデレート学習アルゴリズムであるFedADMMを提供することである。
- 参考スコア(独自算出の注目度): 3.7677951749356686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a framework for distributed optimization that places
emphasis on communication efficiency. In particular, it follows a client-server
broadcast model and is particularly appealing because of its ability to
accommodate heterogeneity in client compute and storage resources, non-i.i.d.
data assumptions, and data privacy. Our contribution is to offer a new
federated learning algorithm, FedADMM, for solving non-convex composite
optimization problems with non-smooth regularizers. We prove converges of
FedADMM for the case when not all clients are able to participate in a given
communication round under a very general sampling model.
- Abstract(参考訳): 連合学習は分散最適化のためのフレームワークであり、コミュニケーション効率を重視している。
特に、クライアントサーバのブロードキャストモデルに従い、クライアントの計算とストレージリソース、非i.i.d.データ仮定、データプライバシの異質性に対応できるため、特に魅力的である。
提案手法は,非スムース正規化器を用いた非凸合成最適化問題を解くための,新しいフェデレーション学習アルゴリズムfeadmmを提供することである。
非常に一般的なサンプリングモデルの下で、すべてのクライアントが所定の通信ラウンドに参加できない場合に、FedADMMの収束を証明します。
関連論文リスト
- FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning [1.802525429431034]
我々はFedADMM-InSaと呼ばれる不正確な自己適応型FedADMMアルゴリズムを提案する。
結果の不正確なADMMの収束は、強い凸損失関数の仮定の下で証明される。
提案アルゴリズムは,クライアントの局所的な計算負荷を大幅に低減し,バニラFedADMMと比較して学習プロセスを高速化する。
論文 参考訳(メタデータ) (2024-02-21T18:19:20Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - FedADMM: A Robust Federated Deep Learning Framework with Adaptivity to
System Heterogeneity [4.2059108111562935]
Federated Learning(FL)は、エッジデバイスによる大規模データの分散処理のための新興フレームワークである。
本稿では,FLAD FedADMMに基づく新しいプロトコルを提案する。
我々は,FedADMMが通信効率の点で,すべてのベースライン手法を一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-07T15:58:33Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。