論文の概要: Network Gradient Descent Algorithm for Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2205.08364v1
- Date: Fri, 6 May 2022 02:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 11:39:39.437845
- Title: Network Gradient Descent Algorithm for Decentralized Federated Learning
- Title(参考訳): 分散フェデレーション学習のためのネットワーク勾配Descentアルゴリズム
- Authors: Shuyuan Wu, Danyang Huang, and Hansheng Wang
- Abstract要約: 本稿では,コミュニケーションベースネットワーク上で実行される新しい勾配勾配アルゴリズムである,完全に分散化されたフェデレーション学習アルゴリズムについて検討する。
NGD法では、統計(パラメータ推定など)のみを通信し、プライバシーのリスクを最小限に抑える必要がある。
学習速度とネットワーク構造の両方が,NGD推定器の統計的効率を決定する上で重要な役割を担っていることがわかった。
- 参考スコア(独自算出の注目度): 0.2867517731896504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a fully decentralized federated learning algorithm, which is a novel
gradient descent algorithm executed on a communication-based network. For
convenience, we refer to it as a network gradient descent (NGD) method. In the
NGD method, only statistics (e.g., parameter estimates) need to be
communicated, minimizing the risk of privacy. Meanwhile, different clients
communicate with each other directly according to a carefully designed network
structure without a central master. This greatly enhances the reliability of
the entire algorithm. Those nice properties inspire us to carefully study the
NGD method both theoretically and numerically. Theoretically, we start with a
classical linear regression model. We find that both the learning rate and the
network structure play significant roles in determining the NGD estimator's
statistical efficiency. The resulting NGD estimator can be statistically as
efficient as the global estimator, if the learning rate is sufficiently small
and the network structure is well balanced, even if the data are distributed
heterogeneously. Those interesting findings are then extended to general models
and loss functions. Extensive numerical studies are presented to corroborate
our theoretical findings. Classical deep learning models are also presented for
illustration purpose.
- Abstract(参考訳): 通信ネットワーク上で実行される新しい勾配降下アルゴリズムである,完全に分散化されたフェデレーション学習アルゴリズムについて検討する。
便宜上、これをネットワーク勾配降下法(ネットワーク勾配降下法)と呼ぶ。
NGD法では、統計(パラメータ推定など)のみを通信し、プライバシーのリスクを最小限に抑える必要がある。
一方、異なるクライアントは、中央マスターなしで慎重に設計されたネットワーク構造に従って直接通信する。
これによりアルゴリズム全体の信頼性が大幅に向上する。
これらの優れた性質は、NGD法を理論的にも数値的にも慎重に研究するきっかけとなった。
理論的には、古典線形回帰モデルから始める。
学習速度とネットワーク構造の両方が,NGD推定器の統計的効率を決定する上で重要な役割を果たすことがわかった。
結果のNGD推定器は、学習率が十分に小さく、ネットワーク構造が不均一に分散していても、グローバル推定器と同じくらい統計的に効率的である。
これらの興味深い発見は一般モデルや損失関数にまで拡張される。
理論的な知見を補うために広範な数値的研究がなされた。
古典的なディープラーニングモデルもイラスト用に提示されている。
関連論文リスト
- Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - FedDKD: Federated Learning with Decentralized Knowledge Distillation [3.9084449541022055]
分散知識蒸留法(FedDKD)を応用した新しいフェデレートラーニングフレームワークを提案する。
我々は、FedDKDが、いくつかのDKDステップにおいて、より効率的なコミュニケーションと訓練により最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-02T07:54:07Z) - Compare Where It Matters: Using Layer-Wise Regularization To Improve
Federated Learning on Heterogeneous Data [0.0]
フェデレートラーニング(Federated Learning)は、分散データ上でニューラルネットワークをトレーニングする方法として広く採用されている。
主な制限は、データが均一に分散されたときに発生するパフォーマンス劣化である。
本稿では,様々なディープラーニングタスクにおいて,従来の最先端手法よりも優れたパフォーマンスを実現するフレームワークであるFedCKAを紹介する。
論文 参考訳(メタデータ) (2021-12-01T10:46:13Z) - Learning and Generalization in Overparameterized Normalizing Flows [13.074242275886977]
正規化フロー(NF)は教師なし学習において重要なモデルのクラスである。
既存のNFモデルの大部分を含むNFのクラスでは、過度なパラメトリゼーションがトレーニングを損なうという理論的および実証的な証拠を提供する。
ネットワークが過度にパラメータ化されている場合、最小限の仮定の下で、制約のないNFが妥当なデータ分布を効率的に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-19T17:11:42Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。