論文の概要: Achieving Linear Speedup in Decentralized Stochastic Compositional
Minimax Optimization
- arxiv url: http://arxiv.org/abs/2307.13430v1
- Date: Tue, 25 Jul 2023 11:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:15:04.695892
- Title: Achieving Linear Speedup in Decentralized Stochastic Compositional
Minimax Optimization
- Title(参考訳): 分散確率的構成的ミニマックス最適化における線形高速化の実現
- Authors: Hongchang Gao
- Abstract要約: 合成ミニマックス問題は、多くの新興機械学習モデルをカバーするため、近年注目を集めている。
本研究は,分散化合成ミニマックス問題に対して,標準ゴシップ通信方式では線形高速化が達成できないことを示す。
本研究では,インナーレベル関数におけるコンセンサス誤差を低減するために,モーメント勾配アルゴリズムを用いた新たな分散合成降下法を開発した。
- 参考スコア(独自算出の注目度): 22.988563731766586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The stochastic compositional minimax problem has attracted a surge of
attention in recent years since it covers many emerging machine learning
models. Meanwhile, due to the emergence of distributed data, optimizing this
kind of problem under the decentralized setting becomes badly needed. However,
the compositional structure in the loss function brings unique challenges to
designing efficient decentralized optimization algorithms. In particular, our
study shows that the standard gossip communication strategy cannot achieve
linear speedup for decentralized compositional minimax problems due to the
large consensus error about the inner-level function. To address this issue, we
developed a novel decentralized stochastic compositional gradient descent
ascent with momentum algorithm to reduce the consensus error in the inner-level
function. As such, our theoretical results demonstrate that it is able to
achieve linear speedup with respect to the number of workers. We believe this
novel algorithmic design could benefit the development of decentralized
compositional optimization. Finally, we applied our methods to the imbalanced
classification problem. The extensive experimental results provide evidence for
the effectiveness of our algorithm.
- Abstract(参考訳): 確率的構成的ミニマックス問題は、近年、多くの機械学習モデルをカバーしているため、注目を集めている。
一方、分散データの出現により、分散設定下でのこの種の問題を最適化することが必要となる。
しかし、損失関数の構成構造は効率的な分散最適化アルゴリズムの設計に固有の課題をもたらす。
特に, 標準のゴシップ通信戦略は, 内部レベル関数に関する大きなコンセンサス誤差のため, 分散構成的ミニマックス問題に対する線形高速化を達成できないことを示した。
この問題に対処するため,内層関数のコンセンサス誤差を低減するために,モーメントアルゴリズムを付加した分散確率勾配勾配法を開発した。
その結果, 作業者の数に対して線形スピードアップを達成できることが理論的に証明された。
この新しいアルゴリズム設計は分散合成最適化の開発に有用であると信じている。
最後に,本手法を不均衡分類問題に適用した。
実験結果から,提案アルゴリズムの有効性が示唆された。
関連論文リスト
- Lower Bounds and Optimal Algorithms for Non-Smooth Convex Decentralized Optimization over Time-Varying Networks [57.24087627267086]
通信ネットワークのノード間で分散的に格納された凸関数の総和を最小化するタスクについて検討する。
この問題を解決するのに必要な分散通信数と(サブ)漸進計算の下位境界が確立されている。
我々は,これらの下界に適合する最初の最適アルゴリズムを開発し,既存の最先端技術と比較して理論性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-28T10:28:45Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Decentralized Multi-Level Compositional Optimization Algorithms with Level-Independent Convergence Rate [26.676582181833584]
分散化されたマルチレベル最適化は、マルチレベル構造と分散通信のために困難である。
マルチレベル構成問題を最適化する2つの新しい分散最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-06T00:23:28Z) - Can Decentralized Stochastic Minimax Optimization Algorithms Converge
Linearly for Finite-Sum Nonconvex-Nonconcave Problems? [56.62372517641597]
分散化されたミニマックス最適化は、幅広い機械学習に応用されているため、ここ数年で活発に研究されている。
本稿では,非コンカブ問題に対する2つの新しい分散化ミニマックス最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-24T02:19:39Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - A Decentralized Adaptive Momentum Method for Solving a Class of Min-Max
Optimization Problems [9.653157073271021]
我々は、min-max最適化問題を解決するために、分散適応運動量 (ADAM) 型アルゴリズムを開発した。
我々は、(確率的な)一階のナッシュ平衡点を求めるための提案アルゴリズムの非漸近収束率を求める。
論文 参考訳(メタデータ) (2021-06-10T22:32:01Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Second-Order Guarantees in Centralized, Federated and Decentralized
Nonconvex Optimization [64.26238893241322]
単純なアルゴリズムは、多くの文脈において優れた経験的結果をもたらすことが示されている。
いくつかの研究は、非最適化問題を研究するための厳密な分析的正当化を追求している。
これらの分析における重要な洞察は、摂動が局所的な降下アルゴリズムを許容する上で重要な役割を担っていることである。
論文 参考訳(メタデータ) (2020-03-31T16:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。