論文の概要: Asynchronous Federated Learning with Bidirectional Quantized
Communications and Buffered Aggregation
- arxiv url: http://arxiv.org/abs/2308.00263v1
- Date: Tue, 1 Aug 2023 03:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:30:49.906437
- Title: Asynchronous Federated Learning with Bidirectional Quantized
Communications and Buffered Aggregation
- Title(参考訳): 双方向量子通信とバッファ集約による非同期フェデレーション学習
- Authors: Tomas Ortega, Hamid Jafarkhani
- Abstract要約: Asynchronous Federated Learning with Buffered Aggregation (FedBuff)は、その効率性と高いスケーラビリティで知られている最先端のアルゴリズムである。
直接量子化によるエラー伝搬を回避するために,サーバとクライアント間で共有された"隠れ"状態を確立する量子化スキームを備えた新しいアルゴリズム(QAFeL)を提案する。
- 参考スコア(独自算出の注目度): 39.057968279167966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Asynchronous Federated Learning with Buffered Aggregation (FedBuff) is a
state-of-the-art algorithm known for its efficiency and high scalability.
However, it has a high communication cost, which has not been examined with
quantized communications. To tackle this problem, we present a new algorithm
(QAFeL), with a quantization scheme that establishes a shared "hidden" state
between the server and clients to avoid the error propagation caused by direct
quantization. This approach allows for high precision while significantly
reducing the data transmitted during client-server interactions. We provide
theoretical convergence guarantees for QAFeL and corroborate our analysis with
experiments on a standard benchmark.
- Abstract(参考訳): Asynchronous Federated Learning with Buffered Aggregation (FedBuff)は、その効率性と高いスケーラビリティで知られている最先端のアルゴリズムである。
しかし,量子化通信では検討されていない通信コストが高い。
この問題に対処するために,我々は,サーバとクライアントの間で共有された"隠れ"状態を確立し,直接量子化によるエラー伝播を回避する量子化スキームを用いた新しいアルゴリズム(qafel)を提案する。
このアプローチは、クライアントとサーバのインタラクション中に送信されるデータを著しく削減しながら、高い精度を実現する。
我々はQAFeLの理論的収束保証を提供し、標準ベンチマークの実験で分析を裏付ける。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Quantized and Asynchronous Federated Learning [22.40154714677385]
我々は,通信ボトルネックに対処する新しい手法であるQuantized Federated AsynchronousQALを開発した。
我々はQALが一様クライアントの到着を必要とせずに$mathtcalqr$dic収束を実現することを証明した。
提案手法を標準ベンチマークを用いて検証する。
論文 参考訳(メタデータ) (2024-09-30T21:22:41Z) - Rate-Constrained Quantization for Communication-Efficient Federated Learning [5.632231145349047]
我々はtextbfrate-textbfconstrained textbffederated Learning (RC-FED) と呼ばれる新しい量子化FLフレームワークを開発した。
我々は、符号化された勾配の速度を目標閾値以下に保ちながら、量子化歪みを最小限に抑える共同最適化として、このスキームを定式化する。
RC-FEDの収束挙動を解析し,いくつかのデータセット上でのベースライン量子化FLスキームに対して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-10T08:22:01Z) - Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - Towards Faster Decentralized Stochastic Optimization with Communication Compression [27.484212303346816]
MoTEFは,Momentum Tracking と Error Feedback との通信を統合する新しい手法である。
我々の分析は、MoTEFが所望のプロパティの大部分と、データの下でかなり既存のメソッドを統合することを実証している。
論文 参考訳(メタデータ) (2024-05-30T14:51:57Z) - Communication-Efficient Federated Learning With Data and Client
Heterogeneity [22.432529149142976]
Federated Learning (FL)は、機械学習モデルの大規模分散トレーニングを可能にする。
FLを大規模に実行するには、本質的に実践的な課題が伴う。
従来のフェデレーション平均化(FedAvg)アルゴリズムの最初の変種を示す。
論文 参考訳(メタデータ) (2022-06-20T22:39:39Z) - Wireless Quantized Federated Learning: A Joint Computation and
Communication Design [36.35684767732552]
本稿では、アップリンク伝送前の局所モデルパラメータを定量化することにより、FLの総収束時間を最小化することを目的とする。
グローバルラウンド全体の収束時間を最小限に抑えるため,計算,通信資源,量子化ビット数を共同で最適化する。
論文 参考訳(メタデータ) (2022-03-11T12:30:08Z) - Adaptive Quantization of Model Updates for Communication-Efficient
Federated Learning [75.45968495410047]
クライアントノードと中央集約サーバ間のモデル更新の通信は、連合学習において大きなボトルネックとなる。
グラディエント量子化(Gradient Quantization)は、各モデル更新間の通信に必要なビット数を削減する効果的な方法である。
通信効率と低エラーフロアを実現することを目的としたAdaFLと呼ばれる適応量子化戦略を提案する。
論文 参考訳(メタデータ) (2021-02-08T19:14:21Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。