論文の概要: Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity
- arxiv url: http://arxiv.org/abs/2302.09634v1
- Date: Sun, 19 Feb 2023 17:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 17:22:54.196182
- Title: Magnitude Matters: Fixing SIGNSGD Through Magnitude-Aware Sparsification
in the Presence of Data Heterogeneity
- Title(参考訳): マグニチュード:SIGNSGDをマグニチュードで固定する : データ不均一性の存在下でのスパーシフィケーション
- Authors: Richeng Jin, Xiaofan He, Caijun Zhong, Zhaoyang Zhang, Tony Quek,
Huaiyu Dai
- Abstract要約: 通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおいて、大きなボトルネックのひとつになっています。
本稿では,SIGNSGDの非収束問題に対処する等級化方式を提案する。
提案手法は,Fashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
- 参考スコア(独自算出の注目度): 60.791736094073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Communication overhead has become one of the major bottlenecks in the
distributed training of deep neural networks. To alleviate the concern, various
gradient compression methods have been proposed, and sign-based algorithms are
of surging interest. However, SIGNSGD fails to converge in the presence of data
heterogeneity, which is commonly observed in the emerging federated learning
(FL) paradigm. Error feedback has been proposed to address the non-convergence
issue. Nonetheless, it requires the workers to locally keep track of the
compression errors, which renders it not suitable for FL since the workers may
not participate in the training throughout the learning process. In this paper,
we propose a magnitude-driven sparsification scheme, which addresses the
non-convergence issue of SIGNSGD while further improving communication
efficiency. Moreover, the local update scheme is further incorporated to
improve the learning performance, and the convergence of the proposed method is
established. The effectiveness of the proposed scheme is validated through
experiments on Fashion-MNIST, CIFAR-10, and CIFAR-100 datasets.
- Abstract(参考訳): 通信オーバーヘッドは、ディープニューラルネットワークの分散トレーニングにおける大きなボトルネックの1つになっている。
この懸念を緩和するため,様々な勾配圧縮法が提案され,符号に基づくアルゴリズムが注目されている。
しかし、signgdは、新しい連合学習(fl)パラダイムで一般的に見られる、データの不均一性の存在下では収束しない。
非収束問題に対処するためにエラーフィードバックが提案されている。
それでも、労働者は局所的に圧縮エラーを追跡する必要があるため、労働者は学習プロセス全体を通してトレーニングに参加できないため、FLには適さない。
本稿では,通信効率をさらに向上しつつ,signgdの非収束問題に対処する,マグニチュード駆動のスパーシフィケーションスキームを提案する。
さらに、学習性能を向上させるため、局所的な更新スキームがさらに組み込まれ、提案手法の収束が確立される。
提案手法の有効性はFashion-MNIST, CIFAR-10, CIFAR-100データセットを用いて検証した。
関連論文リスト
- Smart Information Exchange for Unsupervised Federated Learning via
Reinforcement Learning [11.819765040106185]
本稿では,Reinforcement Learning を用いたデータ転送のための最適グラフ作成手法を提案する。
目標は、環境の制約を考慮して最も利益をもたらすリンクを作ることです。
数値解析により,提案手法の収束速度とトラグラーレジリエンスの利点が示された。
論文 参考訳(メタデータ) (2024-02-15T00:14:41Z) - Sparse Training for Federated Learning with Regularized Error Correction [9.852567834643292]
Federated Learning(FL)は、ディープニューラルネットワーク(DNN)モデルをトレーニングする上で大きなメリットがあるため、大きな関心を集めている。
FLAREは、FLプロセスへの埋め込みを正規化した更新モデルの累積引き込みによる新しいスパーストレーニング手法を提案する。
FLAREの性能は、多種多様な複雑なモデルに関する広範な実験を通じて検証され、顕著なスパーシリティレベル(現在の最先端の10倍以上の)を達成するとともに、精度が大幅に向上した。
論文 参考訳(メタデータ) (2023-12-21T12:36:53Z) - Communication Efficient and Privacy-Preserving Federated Learning Based
on Evolution Strategies [0.0]
Federated Learning(FL)は、ディープニューラルネットワーク(DNN)を分散的にトレーニングするための新興パラダイムである。
本研究では,ゼロオーダー学習法である進化戦略(FedES)に基づくフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-05T21:40:46Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。