論文の概要: FEDNEST: Federated Bilevel, Minimax, and Compositional Optimization
- arxiv url: http://arxiv.org/abs/2205.02215v1
- Date: Wed, 4 May 2022 17:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 16:30:57.551946
- Title: FEDNEST: Federated Bilevel, Minimax, and Compositional Optimization
- Title(参考訳): FEDNEST:Federated Bilevel, Minimax, and compositional Optimization
- Authors: Davoud Ataee Tarzanagh, Mingchen Li, Christos Thrampoulidis, Samet
Oymak
- Abstract要約: 多くの現代のML問題は、ミニマックスと合成最適化を仮定したネストされた双レベルプログラミングに該当する。
我々は、一般的なネスト問題に対処するフェデレーション付き交互勾配法を提案する。
- 参考スコア(独自算出の注目度): 53.78643974257301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard federated optimization methods successfully apply to stochastic
problems with \textit{single-level} structure. However, many contemporary ML
problems -- including adversarial robustness, hyperparameter tuning, and
actor-critic -- fall under nested bilevel programming that subsumes minimax and
compositional optimization. In this work, we propose FedNest: A federated
alternating stochastic gradient method to address general nested problems. We
establish provable convergence rates for FedNest in the presence of
heterogeneous data and introduce variations for bilevel, minimax, and
compositional optimization. FedNest introduces multiple innovations including
federated hypergradient computation and variance reduction to address
inner-level heterogeneity. We complement our theory with experiments on
hyperparameter \& hyper-representation learning and minimax optimization that
demonstrate the benefits of our method in practice. Code is available at
https://github.com/mc-nya/FedNest.
- Abstract(参考訳): 標準フェデレーション最適化法は、 \textit{single-level} 構造を持つ確率問題に適用できる。
しかし、敵対的ロバスト性、ハイパーパラメータチューニング、アクター批判など、現代のMLの多くの問題は、ミニマックスと合成最適化を仮定するネストされた双レベルプログラミングに該当する。
本稿では,一般的なネスト問題に対処するフェデネスト型交互確率勾配法を提案する。
我々は不均一なデータの存在下でFedNestの証明可能な収束率を確立し、バイレベル、ミニマックス、合成最適化のバリエーションを導入する。
fednestは、内部レベルの不均一性に対処するために、フェデレーションハイパーグラディエント計算や分散低減など、複数のイノベーションを導入している。
提案手法の利点を実証するハイパーパラメータ \&ハイパー表現学習とミニマックス最適化の実験により,本理論を補完する。
コードはhttps://github.com/mc-nya/fednestで入手できる。
関連論文リスト
- Byzantine-resilient Federated Learning Employing Normalized Gradients on Non-IID Datasets [23.640506243685863]
実践的連合学習(FLNGA)では、悪意のある攻撃やデータ不均一性の存在が学習プロセスにバイアスをもたらすことが多い。
本稿では、アップロードされた局所勾配をアグリゲーションの前に正規化する正規化勾配単位(Fed-M)モデルを提案し、$mathcalO(pM)$を達成した。
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - Contextual Stochastic Bilevel Optimization [50.36775806399861]
文脈情報と上層変数の期待を最小化する2レベル最適化フレームワークCSBOを導入する。
メタラーニング、パーソナライズドラーニング、エンド・ツー・エンドラーニング、Wassersteinはサイド情報(WDRO-SI)を分散的に最適化している。
論文 参考訳(メタデータ) (2023-10-27T23:24:37Z) - Near-Optimal Decentralized Momentum Method for Nonconvex-PL Minimax
Problems [39.197569803430646]
最小限の最適化は、敵対的ネットワーク(GAN)や敵対的トレーニングなど、多くの機械学習タスクにおいて重要な役割を果たす。
近年,ミニマックス問題の解法として多種多様な最適化手法が提案されているが,そのほとんどは分散設定を無視している。
論文 参考訳(メタデータ) (2023-04-21T11:38:41Z) - Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - A Constrained Optimization Approach to Bilevel Optimization with
Multiple Inner Minima [49.320758794766185]
そこで本研究では,両レベル問題を等価な制約付き最適化に変換する手法を提案する。
このようなアプローチには、(a)多重内極小問題への対処、(b)ジャコビアン計算のない完全一階効率など、いくつかの利点がある。
論文 参考訳(メタデータ) (2022-03-01T18:20:01Z) - Convergence Properties of Stochastic Hypergradients [38.64355126221992]
大規模データセットにおける低レベルの問題が経験的リスクである場合に重要となる過勾配の近似スキームについて検討する。
本研究では,理論解析を支援する数値実験を行い,実際にハイパーグラディエントを用いることの利点を示す。
論文 参考訳(メタデータ) (2020-11-13T20:50:36Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。