論文の概要: Recycling Model Updates in Federated Learning: Are Gradient Subspaces
Low-Rank?
- arxiv url: http://arxiv.org/abs/2202.00280v1
- Date: Tue, 1 Feb 2022 09:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:58:43.656762
- Title: Recycling Model Updates in Federated Learning: Are Gradient Subspaces
Low-Rank?
- Title(参考訳): フェデレーション学習におけるリサイクリングモデル更新:勾配部分空間は低ランクか?
- Authors: Sheikh Shams Azam, Seyyedali Hosseinalipour, Qiang Qiu, Christopher
Brinton
- Abstract要約: 本稿では,この低ランク性を利用して勾配リサイクルを実現する「Look-back Gradient Multiplier(LBGM)」アルゴリズムを提案する。
我々は,LBGMの収束挙動を解析的に特徴付け,通信貯蓄とモデル性能のトレードオフの性質を明らかにする。
LBGMは,既存の分散モデルトレーニングのためのスペーシフィケーション技術の上に,スタンドアロンあるいは積み重ねて使用可能な汎用的なプラグアンドプレイアルゴリズムであることを示す。
- 参考スコア(独自算出の注目度): 26.055358499719027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we question the rationale behind propagating large numbers of
parameters through a distributed system during federated learning. We start by
examining the rank characteristics of the subspace spanned by gradients across
epochs (i.e., the gradient-space) in centralized model training, and observe
that this gradient-space often consists of a few leading principal components
accounting for an overwhelming majority (95-99%) of the explained variance.
Motivated by this, we propose the "Look-back Gradient Multiplier" (LBGM)
algorithm, which exploits this low-rank property to enable gradient recycling
between model update rounds of federated learning, reducing transmissions of
large parameters to single scalars for aggregation. We analytically
characterize the convergence behavior of LBGM, revealing the nature of the
trade-off between communication savings and model performance. Our subsequent
experimental results demonstrate the improvement LBGM obtains in communication
overhead compared to conventional federated learning on several datasets and
deep learning models. Additionally, we show that LBGM is a general
plug-and-play algorithm that can be used standalone or stacked on top of
existing sparsification techniques for distributed model training.
- Abstract(参考訳): 本稿では,フェデレート学習中に分散システムを介して大量のパラメータを伝播する根拠を疑問視する。
まず, 集中型モデル学習において, エポックにまたがる勾配(つまり勾配空間)にまたがる部分空間のランク特性を調べ, この勾配空間は, 説明された分散の圧倒的多数(95~99%)を占めるいくつかの主要な主成分から構成されていることを観察した。
そこで我々は,この低ランク性を利用して,フェデレート学習のモデル更新ラウンド間の勾配リサイクルを実現し,大きなパラメータの送信を単一スカラーに削減する「Look-back Gradient Multiplier(LBGM)」アルゴリズムを提案する。
我々は,LBGMの収束挙動を解析的に特徴付け,通信貯蓄とモデル性能のトレードオフの性質を明らかにする。
実験の結果,LBGMは複数のデータセットや深層学習モデルにおいて,従来のフェデレーション学習に比べて通信オーバーヘッドが向上することを示した。
さらに,LBGMは,既存の分散モデルトレーニングのためのスペーシフィケーション技術の上に,スタンドアロンあるいは積み重ねて使用可能な汎用的なプラグアンドプレイアルゴリズムであることを示す。
関連論文リスト
- Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Submodel Partitioning in Hierarchical Federated Learning: Algorithm
Design and Convergence Analysis [15.311309249848739]
階層学習(FL)は、従来の「星のトポロジー」アーキテクチャに基づく連合学習(FL)よりも有望なスケーラビリティを実証している。
本稿では,IoT(Internet of Things)の独立したサブトレーニングを提案する。
HISTの背景にある主要なアイデアは、モデル計算のグローバルバージョンであり、グローバルモデルを各ラウンドの非結合サブモデルに分割し、異なるセルに分散する。
論文 参考訳(メタデータ) (2023-10-27T04:42:59Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Exploring Heterogeneous Characteristics of Layers in ASR Models for More
Efficient Training [1.3999481573773072]
ランとモデルサイズにまたがるこれらの層の安定性について検討する。
群正規化は, 群形成を乱すことなく適用できる可能性が示唆された。
これらの知見をフェデレートラーニングに適用して,トレーニング手順の改善を図る。
論文 参考訳(メタデータ) (2021-10-08T17:25:19Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。