論文の概要: FL-NTK: A Neural Tangent Kernel-based Framework for Federated Learning
Convergence Analysis
- arxiv url: http://arxiv.org/abs/2105.05001v1
- Date: Tue, 11 May 2021 13:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:02:01.951172
- Title: FL-NTK: A Neural Tangent Kernel-based Framework for Federated Learning
Convergence Analysis
- Title(参考訳): FL-NTK:Federated Learning Convergence Analysisのためのニューラルネットワークカーネルベースのフレームワーク
- Authors: Baihe Huang, Xiaoxiao Li, Zhao Song, Xin Yang
- Abstract要約: 本稿では,FLの勾配降下によって訓練された過減化ReLUニューラルネットワークに対応するFL-NTK(Learning Neural Kernel)について,新しい収束解析法を提案する。
理論的には、FL-NTKは線形学習パラメータを適切に調整した自明な速度で大域最適解に収束する。
- 参考スコア(独自算出の注目度): 27.022551495550676
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) is an emerging learning scheme that allows different
distributed clients to train deep neural networks together without data
sharing. Neural networks have become popular due to their unprecedented
success. To the best of our knowledge, the theoretical guarantees of FL
concerning neural networks with explicit forms and multi-step updates are
unexplored. Nevertheless, training analysis of neural networks in FL is
non-trivial for two reasons: first, the objective loss function we are
optimizing is non-smooth and non-convex, and second, we are even not updating
in the gradient direction. Existing convergence results for gradient
descent-based methods heavily rely on the fact that the gradient direction is
used for updating. This paper presents a new class of convergence analysis for
FL, Federated Learning Neural Tangent Kernel (FL-NTK), which corresponds to
overparamterized ReLU neural networks trained by gradient descent in FL and is
inspired by the analysis in Neural Tangent Kernel (NTK). Theoretically, FL-NTK
converges to a global-optimal solution at a linear rate with properly tuned
learning parameters. Furthermore, with proper distributional assumptions,
FL-NTK can also achieve good generalization.
- Abstract(参考訳): Federated Learning(FL)は、さまざまな分散クライアントがデータ共有なしでディープニューラルネットワークをトレーニングすることを可能にする、新たな学習スキームである。
ニューラルネットワークは前例のない成功によって人気を博している。
我々の知る限りでは、明示的な形式と多段階更新を伴うニューラルネットワークに関するflの理論的保証は未検討である。
それでも、FLにおけるニューラルネットワークのトレーニング分析は、最適化している目的損失関数が非滑らかで非凸であり、第2に、勾配方向の更新すらしていない、という2つの理由から、簡単ではない。
勾配勾配に基づく手法の既存の収束結果は、勾配方向が更新に使用されるという事実に大きく依存している。
本稿では,FLの勾配勾配勾配から学習した超並列化ReLUニューラルネットワークに対応するFL-NTK(Federated Learning Neural Tangent Kernel)について,新しい収束解析法を提案する。
理論的には、FL-NTKは適切に調整された学習パラメータを持つ線形速度で大域最適解に収束する。
さらに、適切な分布仮定により、FL-NTK は良い一般化を達成できる。
関連論文リスト
- Approximation and Gradient Descent Training with Neural Networks [0.0]
最近の研究は、ニューラル・タンジェント・カーネル(NTK)最適化の議論を過度にパラメータ化された状態に拡張している。
本稿では,勾配降下法により学習したネットワークの類似性を示す。
論文 参考訳(メタデータ) (2024-05-19T23:04:09Z) - Fixing the NTK: From Neural Network Linearizations to Exact Convex
Programs [63.768739279562105]
学習目標に依存しない特定のマスクウェイトを選択する場合、このカーネルはトレーニングデータ上のゲートReLUネットワークのNTKと等価であることを示す。
この目標への依存の欠如の結果として、NTKはトレーニングセット上の最適MKLカーネルよりもパフォーマンスが良くない。
論文 参考訳(メタデータ) (2023-09-26T17:42:52Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - A global convergence theory for deep ReLU implicit networks via
over-parameterization [26.19122384935622]
暗黙の深層学習は近年注目を集めている。
本稿では,Rectified Linear Unit (ReLU) 活性化暗黙的ニューラルネットワークの勾配流れを解析する。
論文 参考訳(メタデータ) (2021-10-11T23:22:50Z) - Convergence rates for gradient descent in the training of
overparameterized artificial neural networks with biases [3.198144010381572]
近年、人工ニューラルネットワークは、古典的なソリューションが近づいている多数の問題に対処するための強力なツールに発展しています。
ランダムな勾配降下アルゴリズムが限界に達する理由はまだ不明である。
論文 参考訳(メタデータ) (2021-02-23T18:17:47Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Optimal Rates for Averaged Stochastic Gradient Descent under Neural
Tangent Kernel Regime [50.510421854168065]
平均勾配勾配勾配は極小収束率が得られることを示す。
本稿では、ReLUネットワークのNTKで指定されたターゲット関数を最適収束速度で学習できることを示す。
論文 参考訳(メタデータ) (2020-06-22T14:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。