論文の概要: Communication-efficient Federated Learning with Single-Step Synthetic
Features Compressor for Faster Convergence
- arxiv url: http://arxiv.org/abs/2302.13562v1
- Date: Mon, 27 Feb 2023 07:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:33:57.894020
- Title: Communication-efficient Federated Learning with Single-Step Synthetic
Features Compressor for Faster Convergence
- Title(参考訳): 高速収束のための単一ステップ合成特徴圧縮器を用いたコミュニケーション効率のよいフェデレーション学習
- Authors: Yuhao Zhou, Mingjia Shi, Qing Ye, Yanan Sun, Jiancheng Lv
- Abstract要約: 通信効率のよいフェデレート学習を実現するために, 単段合成特徴圧縮機(3SFC)を提案する。
3SFCの圧縮フェーズは、類似性に基づく目的関数を利用して、1ステップで最適化できる。
複数のデータセットやモデルの実験から、3SFCは競合する手法に比べてはるかにコンバージェンスレートが優れていることが示唆されている。
- 参考スコア(独自算出の注目度): 19.766163856388694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reducing communication overhead in federated learning (FL) is challenging but
crucial for large-scale distributed privacy-preserving machine learning. While
methods utilizing sparsification or others can largely lower the communication
overhead, the convergence rate is also greatly compromised. In this paper, we
propose a novel method, named single-step synthetic features compressor (3SFC),
to achieve communication-efficient FL by directly constructing a tiny synthetic
dataset based on raw gradients. Thus, 3SFC can achieve an extremely low
compression rate when the constructed dataset contains only one data sample.
Moreover, 3SFC's compressing phase utilizes a similarity-based objective
function so that it can be optimized with just one step, thereby considerably
improving its performance and robustness. In addition, to minimize the
compressing error, error feedback (EF) is also incorporated into 3SFC.
Experiments on multiple datasets and models suggest that 3SFC owns
significantly better convergence rates compared to competing methods with lower
compression rates (up to 0.02%). Furthermore, ablation studies and
visualizations show that 3SFC can carry more information than competing methods
for every communication round, further validating its effectiveness.
- Abstract(参考訳): 連合学習(fl)における通信オーバーヘッドの削減は難しいが、大規模分散プライバシ保存機械学習では不可欠である。
スパシフィケーションなどの手法は通信オーバーヘッドを大幅に減らすことができるが、収束率も著しく損なわれる。
本稿では, 単段合成特徴圧縮機(3SFC)という新しい手法を提案し, 生勾配に基づいて, 小さな合成データセットを直接構築することにより, 通信効率の高いFLを実現する。
したがって、3SFCは、構築されたデータセットが1つのデータサンプルのみを含む場合、非常に低い圧縮率を達成することができる。
さらに、3sfcの圧縮相は相似性に基づく目的関数を利用して1ステップで最適化できるため、性能とロバスト性が大幅に向上する。
さらに,圧縮誤差を最小限に抑えるため,誤差フィードバック(EF)も3SFCに組み込まれている。
複数のデータセットとモデルの実験から、3SFCは圧縮率の低い競合する手法(最大0.02%)に比べてはるかに優れた収束率を持っていることが示唆された。
さらに、アブレーション研究と可視化により、3sfcはコミュニケーションラウンド毎に競合する方法よりも多くの情報を運ぶことができ、その効果をさらに検証できることを示した。
関連論文リスト
- Communication-Efficient Distributed Learning with Local Immediate Error
Compensation [95.6828475028581]
本稿では,局所的即時誤差補償SGD (LIEC-SGD) 最適化アルゴリズムを提案する。
LIEC-SGDは、コンバージェンスレートまたは通信コストのいずれにおいても、以前の研究よりも優れている。
論文 参考訳(メタデータ) (2024-02-19T05:59:09Z) - Improving the Worst-Case Bidirectional Communication Complexity for
Nonconvex Distributed Optimization under Function Similarity [52.138754950594375]
ダウンリンク圧縮のための新しい手法であるMARINA-Pを導入する。
置換圧縮機を用いたMARINA-Pは、作業者数に応じてサーバ間通信の複雑さを向上できることを示す。
本稿では,MARINA-Pとアップリンク圧縮とモーメントステップを組み合わせた手法であるM3を導入する。
論文 参考訳(メタデータ) (2024-02-09T13:58:33Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Low-Rank Gradient Compression with Error Feedback for MIMO Wireless
Federated Learning [37.70844338213942]
提案手法は,最小二乗の交互化に基づく局所勾配圧縮のための低ランク行列因数分解戦略と,オーバー・ザ・エア計算と誤差フィードバックに重点を置いている。
提案プロトコルはオーバー・ザ・エア・ローランク圧縮 (Ota-LC) と呼ばれ, 計算コストが低く, 通信オーバーヘッドも従来のベンチマークと比較できる。
論文 参考訳(メタデータ) (2024-01-15T06:30:06Z) - Stochastic Controlled Averaging for Federated Learning with
Communication Compression [40.56306832119751]
我々は,非バイアス圧縮とバイアス圧縮をサポートするために,SCALLIONとSCAFCOMという2つの圧縮FLアルゴリズムを提案する。
両手法は通信や計算の複雑さの観点から既存のFL法よりも優れている。
論文 参考訳(メタデータ) (2023-08-16T06:35:36Z) - HFedMS: Heterogeneous Federated Learning with Memorable Data Semantics
in Industrial Metaverse [49.1501082763252]
本稿では,新しい産業メタバースに実用FLを取り入れたHFEDMSを提案する。
動的グルーピングとトレーニングモード変換によってデータの均一性を低下させる。
そして、圧縮された履歴データセマンティクスを融合することで、忘れられた知識を補う。
ストリームされた非I.d.FEMNISTデータセットに対して,368個のシミュレーションデバイスを用いて実験を行った。
論文 参考訳(メタデータ) (2022-11-07T04:33:24Z) - Distributed Newton-Type Methods with Communication Compression and
Bernoulli Aggregation [11.870393751095083]
曲率情報に対する同調圧縮と集約機構について検討する。
適応しきい値処理やベルヌーイ集約といった新しい3PC機構は、通信の低減と時折ヘッセン計算を必要とする。
全ての方法について、高速条件数非依存の局所線型および/または超線型収束率を導出する。
論文 参考訳(メタデータ) (2022-06-07T21:12:21Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Efficient Data Compression for 3D Sparse TPC via Bicephalous
Convolutional Autoencoder [8.759778406741276]
この研究は、textitBicephalous Convolutional AutoEncoder (BCAE)と呼ばれる、空間と回帰を同時に解決するデュアルヘッドオートエンコーダを導入している。
これはMGARD、SZ、ZFPといった従来のデータ圧縮手法と比較して圧縮忠実度と比の両方の利点を示している。
論文 参考訳(メタデータ) (2021-11-09T21:26:37Z) - Remote Multilinear Compressive Learning with Adaptive Compression [107.87219371697063]
MultiIoT Compressive Learning (MCL)は、多次元信号に対する効率的な信号取得および学習パラダイムである。
MCLモデルにそのような機能を実現するための新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2021-09-02T19:24:03Z) - Communication-Efficient Federated Learning with Compensated
Overlap-FedAvg [22.636184975591004]
フェデレーションラーニングは、クラスタ内でデータセットを共有することなく、複数のクライアントの複合データによるモデルトレーニングを実行するために提案される。
Overlap-FedAvgはモデルアップロードおよびダウンロードフェーズとモデルトレーニングフェーズを並列化するフレームワークである。
オーバーラップfedavgはさらに階層的計算戦略、データ補償機構、ネステロフ加速勾配(nag)アルゴリズムを用いて開発されている。
論文 参考訳(メタデータ) (2020-12-12T02:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。