論文の概要: A proximal augmented Lagrangian based algorithm for federated learning
with global and local convex conic constraints
- arxiv url: http://arxiv.org/abs/2310.10117v1
- Date: Mon, 16 Oct 2023 06:51:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 01:35:04.038242
- Title: A proximal augmented Lagrangian based algorithm for federated learning
with global and local convex conic constraints
- Title(参考訳): 大域的および局所的凸円錐制約を伴う連合学習のためのラグランジアン近似アルゴリズム
- Authors: Chuan He, Le Peng, Ju Sun
- Abstract要約: 本稿では,大域的および局所的凸円錐制約を受ける局所的目的関数の総和を,中央サーバと全ローカルクライアントがまとめて最小化する,制約付き連合学習(FL)について考察する。
本稿では,各ローカルクライアントが局所的目的と局所的制約を用いて複数の更新を行うためのFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.601596338872556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers federated learning (FL) with constraints, where the
central server and all local clients collectively minimize a sum of convex
local objective functions subject to global and local convex conic constraints.
To train the model without moving local data from clients to the central
server, we propose an FL framework in which each local client performs multiple
updates using the local objective and local constraint, while the central
server handles the global constraint and performs aggregation based on the
updated local models. In particular, we develop a proximal augmented Lagrangian
(AL) based algorithm for FL with global and local convex conic constraints. The
subproblems arising in this algorithm are solved by an inexact alternating
direction method of multipliers (ADMM) in a federated fashion. Under a local
Lipschitz condition and mild assumptions, we establish the worst-case
complexity bounds of the proposed algorithm for finding an approximate KKT
solution. To the best of our knowledge, this work proposes the first algorithm
for FL with global and local constraints. Our numerical experiments demonstrate
the practical advantages of our algorithm in performing Neyman-Pearson
classification and enhancing model fairness in the context of FL.
- Abstract(参考訳): 本稿では,大域的および局所的凸円錐制約を受ける局所的目的関数の総和を,中央サーバと全ローカルクライアントがまとめて最小化する,制約付き連合学習(FL)について考察する。
クライアントから中央サーバへローカルデータを移動させることなくモデルをトレーニングするために,各ローカルクライアントがローカルオブジェクトとローカル制約を用いて複数の更新を行うFLフレームワークを提案し,一方,中央サーバはグローバル制約を処理し,更新されたローカルモデルに基づいて集約を行う。
特に,大域的および局所的な凸円錐制約を持つFLのための近似拡張ラグランジアン(AL)アルゴリズムを開発した。
このアルゴリズムで生じるサブプロブレムは、連合方式で乗算器(ADMM)の不正確な交互方向法によって解決される。
局所的なリプシッツ条件と軽度の仮定の下で、近似KKT解を求めるアルゴリズムの最悪の複雑性境界を確立する。
我々の知る限り、この研究は世界的および局所的な制約を持つFLのための最初のアルゴリズムを提案する。
数値実験により,FLの文脈におけるNeyman-Pearson分類とモデルフェアネス向上におけるアルゴリズムの実用的利点を実証した。
関連論文リスト
- Where is the Testbed for my Federated Learning Research? [3.910931245706272]
本稿では,連邦学習(FL)研究のための実世界テストベッドであるCoLExTを紹介する。
CoLExTは、リッチなテストベッド構成空間におけるカスタムFLアルゴリズムの実験を合理化するように設計されている。
CoLExT上で動作する一般的なFLアルゴリズムに関する最初の調査を通じて、これまで未知のトレードオフ、非効率性、およびプログラミングバグを明らかにした。
論文 参考訳(メタデータ) (2024-07-19T09:34:04Z) - Constrained Bi-Level Optimization: Proximal Lagrangian Value function
Approach and Hessian-free Algorithm [8.479947546216131]
We developed a Hessian-free gradient-based algorithm-termed proximal Lagrangian Value function-based Hessian-free Bi-level Algorithm (LV-HBA)
LV-HBAは特に機械学習アプリケーションに適している。
論文 参考訳(メタデータ) (2024-01-29T13:50:56Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Automated Federated Learning in Mobile Edge Networks -- Fast Adaptation
and Convergence [83.58839320635956]
フェデレートラーニング(FL)は、モバイルエッジネットワークで機械学習モデルを分散的にトレーニングするために使用することができる。
最近のFLは、モデルに依存しないメタラーニング(MAML)フレームワークで解釈されている。
本稿は,MAMLがFLにもたらすメリットと,モバイルエッジネットワーク上でのメリットの最大化について論じる。
論文 参考訳(メタデータ) (2023-03-23T02:42:10Z) - FLAGS Framework for Comparative Analysis of Federated Learning
Algorithms [0.0]
この研究は、フェデレートラーニングのランドスケープを統合し、主要なFLアルゴリズムの客観的分析を提供する。
FLAGS: Federated Learning AlGorithms Simulationを開発した。
実験の結果,完全分散FLアルゴリズムは複数の動作条件下で同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2022-12-14T12:08:30Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FLIX: A Simple and Communication-Efficient Alternative to Local Methods
in Federated Learning [4.492444446637857]
フェデレーション学習は、複数のノードが協調的に学習しようとする、ますます人気のある機械学習パラダイムである。
教師付き学習の標準的な平均リスク最小化は、連邦学習に特有のいくつかの主要な制約を扱うのに不十分である。
我々は、フェデレートラーニングによってもたらされるユニークな課題を考慮に入れた、新しいフレームワークFLIXを紹介します。
論文 参考訳(メタデータ) (2021-11-22T22:06:58Z) - Compositional federated learning: Applications in distributionally
robust averaging and meta learning [31.97853929292195]
本稿では,新しい構成フェデレートラーニング(FL)フレームワークを解くための,効率的かつ効率的な合成フェデレートラーニング(ComFedL)アルゴリズムを提案する。
我々はComFedLアルゴリズムが$O(frac1sqrtT)$の収束率を達成することを証明した。
論文 参考訳(メタデータ) (2021-06-21T17:08:09Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。