論文の概要: Efficient Asynchronous Federated Learning with Sparsification and
Quantization
- arxiv url: http://arxiv.org/abs/2312.15186v2
- Date: Sat, 6 Jan 2024 12:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 21:48:50.503016
- Title: Efficient Asynchronous Federated Learning with Sparsification and
Quantization
- Title(参考訳): スパシフィケーションと量子化による効率的な非同期フェデレーション学習
- Authors: Juncheng Jia, Ji Liu, Chendi Zhou, Hao Tian, Mianxiong Dong, Dejing
Dou
- Abstract要約: フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
- 参考スコア(独自算出の注目度): 55.6801207905772
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While data is distributed in multiple edge devices, Federated Learning (FL)
is attracting more and more attention to collaboratively train a machine
learning model without transferring raw data. FL generally exploits a parameter
server and a large number of edge devices during the whole process of the model
training, while several devices are selected in each round. However, straggler
devices may slow down the training process or even make the system crash during
training. Meanwhile, other idle edge devices remain unused. As the bandwidth
between the devices and the server is relatively low, the communication of
intermediate data becomes a bottleneck. In this paper, we propose
Time-Efficient Asynchronous federated learning with Sparsification and
Quantization, i.e., TEASQ-Fed. TEASQ-Fed can fully exploit edge devices to
asynchronously participate in the training process by actively applying for
tasks. We utilize control parameters to choose an appropriate number of
parallel edge devices, which simultaneously execute the training tasks. In
addition, we introduce a caching mechanism and weighted averaging with respect
to model staleness to further improve the accuracy. Furthermore, we propose a
sparsification and quantitation approach to compress the intermediate data to
accelerate the training. The experimental results reveal that TEASQ-Fed
improves the accuracy (up to 16.67% higher) while accelerating the convergence
of model training (up to twice faster).
- Abstract(参考訳): データは複数のエッジデバイスに分散されているが、フェデレーション学習(fl)は、生データを転送せずに機械学習モデルを協調的にトレーニングするためにますます注目を集めている。
flは一般的に、モデルトレーニングのプロセス全体を通してパラメータサーバと多数のエッジデバイスを利用するが、複数のデバイスは各ラウンド毎に選択される。
しかし、ストラグラーデバイスはトレーニングプロセスを遅くしたり、トレーニング中にシステムをクラッシュさせることもある。
一方、他のアイドルエッジデバイスは未使用のままである。
デバイスとサーバ間の帯域幅が比較的低いため、中間データの通信はボトルネックとなる。
本稿では,Sparsification and Quantization,すなわちTEASQ-Fedを用いた時間効率の非同期フェデレーション学習を提案する。
TEASQ-Fedは、タスクに積極的に適用することで、エッジデバイスを完全に活用して、トレーニングプロセスに非同期に参加することができる。
制御パラメータを利用して適切な数の並列エッジデバイスを選択し、同時にトレーニングタスクを実行する。
さらに,キャッシング機構とモデルスタレネスに対する重み付け平均化を導入し,精度の向上を図る。
さらに,中間データを圧縮してトレーニングを高速化するためのスパーシフィケーション・量子化手法を提案する。
実験の結果、TEASQ-Fedは精度を最大16.67%向上し、モデルトレーニングの収束を加速する(最大2倍高速)。
関連論文リスト
- FedAST: Federated Asynchronous Simultaneous Training [27.492821176616815]
フェデレートラーニング(FL)は、デバイスやクライアントがプライベートデータを共有せずに機械学習(ML)モデルを協調的にトレーニングすることを可能にする。
FLにおける既存の作業の多くは、1つのタスクのモデルを効率的に学習することに集中しています。
本稿では,共通データセットを用いた複数のFLモデルの同時学習を提案する。
論文 参考訳(メタデータ) (2024-06-01T05:14:20Z) - AccEPT: An Acceleration Scheme for Speeding Up Edge Pipeline-parallel
Training [22.107070114339038]
本稿では,エッジ協調パイプライン並列トレーニングを高速化するアクセラレーションスキームであるAccEPTを提案する。
特に,異なるデバイスにおける各レイヤの遅延を正確に推定する軽量適応遅延予測器を提案する。
数値計算の結果,提案手法により,エッジパイプラインの並列学習を最大3倍高速化できることがわかった。
論文 参考訳(メタデータ) (2023-11-10T02:18:33Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Multi-Job Intelligent Scheduling with Cross-Device Federated Learning [65.69079337653994]
フェデレートラーニング(FL)は、センシティブな生データを共有せずに、協調的なグローバル機械学習モデルのトレーニングを可能にする。
本稿では,複数のジョブを並列にトレーニングできる新しいマルチジョブFLフレームワークを提案する。
本稿では,元来の強化学習に基づくスケジューリング手法と元来のベイズ最適化に基づくスケジューリング手法を含む,複数のスケジューリング手法に基づく新しいインテリジェントスケジューリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-24T06:17:40Z) - Fast-Convergent Federated Learning via Cyclic Aggregation [10.658882342481542]
フェデレートラーニング(FL)は、複数のエッジデバイス上で共有グローバルモデルを最適化することを目的として、中央サーバに(プライベート)データを送信しない。
本稿では,サーバ側での循環学習率を利用して,性能向上によるトレーニングイテレーション数を削減した。
数値計算の結果,提案したサイクリックアグリゲーションを既存のFLアルゴリズムに簡単に差し込むことで,学習イテレーションの数を効果的に減らし,性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-10-29T07:20:59Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。