論文の概要: An Empirical Study on Compressed Decentralized Stochastic Gradient
Algorithms with Overparameterized Models
- arxiv url: http://arxiv.org/abs/2110.04523v1
- Date: Sat, 9 Oct 2021 09:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 20:58:50.877725
- Title: An Empirical Study on Compressed Decentralized Stochastic Gradient
Algorithms with Overparameterized Models
- Title(参考訳): 過パラメータモデルを用いた圧縮分散確率勾配アルゴリズムの実証的研究
- Authors: Arjun Ashok Rao and Hoi-To Wai
- Abstract要約: 圧縮分散勾配(DSG)アルゴリズムの性能に関する実験的検討を行った。
一般的な圧縮アルゴリズムの収束速度は、NNのサイズに対して頑健である。
本研究は,既存の文献における圧縮DSGアルゴリズムの理論と実践のギャップを示唆するものである。
- 参考スコア(独自算出の注目度): 22.701746054645064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers decentralized optimization with application to machine
learning on graphs. The growing size of neural network (NN) models has
motivated prior works on decentralized stochastic gradient algorithms to
incorporate communication compression. On the other hand, recent works have
demonstrated the favorable convergence and generalization properties of
overparameterized NNs. In this work, we present an empirical analysis on the
performance of compressed decentralized stochastic gradient (DSG) algorithms
with overparameterized NNs. Through simulations on an MPI network environment,
we observe that the convergence rates of popular compressed DSG algorithms are
robust to the size of NNs. Our findings suggest a gap between theories and
practice of the compressed DSG algorithms in the existing literature.
- Abstract(参考訳): 本稿では,グラフ上での機械学習による分散最適化について考察する。
ニューラルネットワーク(NN)モデルの増大するサイズは、通信圧縮を組み込む分散確率勾配アルゴリズムに関する先行研究を動機付けている。
一方,近年の研究では,過パラメータ化NNの収束性や一般化性を実証している。
本研究では,過パラメータnnを用いた圧縮分散確率勾配(dsg)アルゴリズムの性能に関する経験的解析を行う。
MPIネットワーク環境におけるシミュレーションにより、一般的な圧縮DSGアルゴリズムの収束速度がNNのサイズに頑健であることを確認する。
以上より,既存の文献における圧縮dsgアルゴリズムの理論と実践のギャップが示唆された。
関連論文リスト
- Stochastic Gradient Descent for Two-layer Neural Networks [2.0349026069285423]
本稿では、過パラメータ化された2層ニューラルネットワークに適用した場合の降下(SGD)アルゴリズムの収束率について検討する。
提案手法は,NTKのタンジェントカーネル(NTK)近似と,NTKが生成する再生カーネル空間(RKHS)の収束解析を組み合わせたものである。
我々の研究フレームワークは、カーネルメソッドと最適化プロセスの間の複雑な相互作用を探索し、ニューラルネットワークのダイナミクスと収束特性に光を当てることを可能にする。
論文 参考訳(メタデータ) (2024-07-10T13:58:57Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Stability and Generalization of the Decentralized Stochastic Gradient
Descent Ascent Algorithm [80.94861441583275]
本稿では,分散勾配勾配(D-SGDA)アルゴリズムの一般化境界の複雑さについて検討する。
本研究は,D-SGDAの一般化における各因子の影響を解析した。
また、最適凸凹設定を得るために一般化とバランスをとる。
論文 参考訳(メタデータ) (2023-10-31T11:27:01Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Adaptive Step-Size Methods for Compressed SGD [15.32764898836189]
分散および分散化ネットワークにおける通信ボトルネックに対処するために,圧縮分散型グラディエント Descent (SGD) アルゴリズムが最近提案されている。
我々は、圧縮データセットの順序収束率を確立するために使用するスケーリングステップを導入する。
実世界のデータセットに対する実験結果を示す。
論文 参考訳(メタデータ) (2022-07-20T17:20:58Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Decentralized Statistical Inference with Unrolled Graph Neural Networks [26.025935320024665]
分散最適化アルゴリズムをグラフニューラルネットワーク(GNN)にアンロールする学習ベースフレームワークを提案する。
エンドツーエンドトレーニングによるリカバリエラーを最小限にすることで、この学習ベースのフレームワークは、モデルのミスマッチ問題を解決する。
コンバージェンス解析により,学習したモデルパラメータがコンバージェンスを加速し,リカバリエラーを広範囲に低減できることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-04T07:52:34Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z) - Linear Convergent Decentralized Optimization with Compression [50.44269451541387]
圧縮を伴う既存の分散アルゴリズムは主にDGD型アルゴリズムの圧縮に焦点を当てている。
原始双対アルゴリズムによって動機付けられた本論文は、最初のアンダーラインLinunderlineEAr収束を提案する。
underline Decentralized with compression, LEAD。
論文 参考訳(メタデータ) (2020-07-01T04:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。