論文の概要: FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy
- arxiv url: http://arxiv.org/abs/2310.09789v4
- Date: Fri, 23 Aug 2024 03:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 20:18:44.231778
- Title: FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy
- Title(参考訳): FLrce: アーリーストッピング戦略によるリソース効率の良いフェデレーションラーニング
- Authors: Ziru Niu, Hai Dong, A. Kai Qin, Tao Gu,
- Abstract要約: フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
- 参考スコア(独自算出の注目度): 7.963276533979389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) achieves great popularity in the Internet of Things (IoT) as a powerful interface to offer intelligent services to customers while maintaining data privacy. Under the orchestration of a server, edge devices (also called clients in FL) collaboratively train a global deep-learning model without sharing any local data. Nevertheless, the unequal training contributions among clients have made FL vulnerable, as clients with heavily biased datasets can easily compromise FL by sending malicious or heavily biased parameter updates. Furthermore, the resource shortage issue of the network also becomes a bottleneck. Due to overwhelming computation overheads generated by training deep-learning models on edge devices, and significant communication overheads for transmitting deep-learning models across the network, enormous amounts of resources are consumed in the FL process. This encompasses computation resources like energy and communication resources like bandwidth. To comprehensively address these challenges, in this paper, we present FLrce, an efficient FL framework with a relationship-based client selection and early-stopping strategy. FLrce accelerates the FL process by selecting clients with more significant effects, enabling the global model to converge to a high accuracy in fewer rounds. FLrce also leverages an early stopping mechanism that terminates FL in advance to save communication and computation resources. Experiment results show that, compared with existing efficient FL frameworks, FLrce improves the computation and communication efficiency by at least 30% and 43% respectively.
- Abstract(参考訳): フェデレートラーニング(FL)は、IoT(Internet of Things)において、データのプライバシを維持しながら、インテリジェントなサービスを顧客に提供するための強力なインターフェースとして、非常に人気がある。
サーバのオーケストレーションの下では、エッジデバイス(FLのクライアントとも呼ばれる)は、ローカルデータを共有せずに、グローバルなディープラーニングモデルを協調的にトレーニングする。
それでも、クライアント間の不平等なトレーニングコントリビューションは、FLを脆弱なものにしている。
さらに、ネットワークのリソース不足の問題もボトルネックとなっている。
エッジデバイス上でディープラーニングモデルをトレーニングすることによって発生する計算オーバーヘッドと、ネットワーク全体にわたってディープラーニングモデルを送信するための通信オーバーヘッドにより、FLプロセスでは膨大なリソースが消費される。
これは、エネルギーや帯域幅のような通信資源のような計算資源を含んでいる。
本稿では、これらの課題を包括的に解決するために、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークであるFLrceを提案する。
FLrceは、より大きな効果を持つクライアントを選択することでFLプロセスを加速し、グローバルモデルがより少ないラウンドで高精度に収束できるようにする。
FLrceはまた、通信と計算資源を節約するために、FLを事前に停止させる早期停止機構も活用している。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
関連論文リスト
- SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Apodotiko: Enabling Efficient Serverless Federated Learning in Heterogeneous Environments [40.06788591656159]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルの協調トレーニングを可能にする、新興の機械学習パラダイムである。
本稿では、サーバレスFL用に設計された新しい非同期トレーニング戦略であるApodotikoを紹介する。
我々の戦略には、各クライアントのハードウェア能力とデータセットサイズを評価して、トレーニングラウンド毎にクライアントをインテリジェントに優先順位付けし、選択するスコアリングメカニズムが組み込まれています。
論文 参考訳(メタデータ) (2024-04-22T09:50:11Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Joint Age-based Client Selection and Resource Allocation for
Communication-Efficient Federated Learning over NOMA Networks [8.030674576024952]
FL(Federated Learning)では、分散クライアントは、自身のトレーニングデータをローカルに保持しながら、共有グローバルモデルを共同でトレーニングすることができる。
本稿では,非直交多重アクセス(NOMA)を利用した無線ネットワーク上でのFLにおける各ラウンドの総時間消費を最小化することを目的とした,クライアント選択とリソース割り当ての協調最適化問題を定式化する。
さらに、各ラウンドで選択されていないクライアントのFLモデルを予測し、FL性能をさらに向上するために、サーバサイド人工知能ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2023-04-18T13:58:16Z) - On the Design of Communication-Efficient Federated Learning for Health
Monitoring [21.433739206682404]
本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
論文 参考訳(メタデータ) (2022-11-30T12:52:23Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - FedAR: Activity and Resource-Aware Federated Learning Model for
Distributed Mobile Robots [1.332560004325655]
最近提案されたFederated Learning(FL)と呼ばれる機械学習アルゴリズムは、データのプライバシーを維持する道を開く。
本稿では、クライアントのアクティビティを監視し、利用可能なローカルコンピューティングリソースを活用することでFLモデルを提案する。
このような移動ロボットをFLクライアントとみなして,現実の環境での資源制約された動作を理解する。
論文 参考訳(メタデータ) (2021-01-11T05:27:37Z) - Convergence Time Optimization for Federated Learning over Wireless
Networks [160.82696473996566]
無線ユーザが(ローカル収集データを用いて訓練した)ローカルFLモデルを基地局(BS)に送信する無線ネットワークを考える。
中央コントローラとして機能するBSは、受信したローカルFLモデルを使用してグローバルFLモデルを生成し、それを全ユーザにブロードキャストする。
無線ネットワークにおけるリソースブロック(RB)の数が限られているため、ローカルFLモデルパラメータをBSに送信するために選択できるのは一部のユーザのみである。
各ユーザが独自のトレーニングデータサンプルを持っているため、BSは、収束したグローバルFLモデルを生成するために、すべてのローカルユーザFLモデルを含むことを好んでいる。
論文 参考訳(メタデータ) (2020-01-22T01:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。