論文の概要: FedBWO: Enhancing Communication Efficiency in Federated Learning
- arxiv url: http://arxiv.org/abs/2505.04435v1
- Date: Wed, 07 May 2025 14:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.101973
- Title: FedBWO: Enhancing Communication Efficiency in Federated Learning
- Title(参考訳): FedBWO:フェデレートラーニングにおけるコミュニケーション効率向上
- Authors: Vahideh Hayyolalam, Öznur Özkasap,
- Abstract要約: フェデレートラーニング(FL)は、分散機械学習(ML)のセットアップで、共有モデルは、データをプライベートにしながら、ローカルデータセットを使用して、さまざまなクライアントによって協調的にトレーニングされる。
リソースの制約を考慮すると、クライアントの数とデータ量(モデルウェイト)がボトルネックにつながる可能性がある。
本稿では,Federated Black Widow Optimization (FedBWO) 技術を導入し,クライアントのローカルモデル重みではなく,パフォーマンススコアのみを送信することで送信データ量を削減する。
- 参考スコア(独自算出の注目度): 4.788163807490197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a distributed Machine Learning (ML) setup, where a shared model is collaboratively trained by various clients using their local datasets while keeping the data private. Considering resource-constrained devices, FL clients often suffer from restricted transmission capacity. Aiming to enhance the system performance, the communication between clients and server needs to be diminished. Current FL strategies transmit a tremendous amount of data (model weights) within the FL process, which needs a high communication bandwidth. Considering resource constraints, increasing the number of clients and, consequently, the amount of data (model weights) can lead to a bottleneck. In this paper, we introduce the Federated Black Widow Optimization (FedBWO) technique to decrease the amount of transmitted data by transmitting only a performance score rather than the local model weights from clients. FedBWO employs the BWO algorithm to improve local model updates. The conducted experiments prove that FedBWO remarkably improves the performance of the global model and the communication efficiency of the overall system. According to the experimental outcomes, FedBWO enhances the global model accuracy by an average of 21% over FedAvg, and 12% over FedGWO. Furthermore, FedBWO dramatically decreases the communication cost compared to other methods.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散機械学習(ML)のセットアップで、共有モデルは、データをプライベートにしながら、ローカルデータセットを使用して、さまざまなクライアントによって協調的にトレーニングされる。
リソース制限されたデバイスを考えると、FLクライアントは送信容量の制限に悩まされることが多い。
システムパフォーマンスを向上させるためには、クライアントとサーバ間の通信を減らさなければならない。
現在のFL戦略は、高い通信帯域幅を必要とするFLプロセス内で膨大な量のデータ(モデル重み)を送信する。
リソースの制約を考慮すると、クライアントの数を増やし、結果としてデータ量(モデルウェイト)がボトルネックにつながる可能性がある。
本稿では,Federated Black Widow Optimization (FedBWO) 技術を導入し,クライアントのローカルモデル重みではなく,パフォーマンススコアのみを送信することで送信データ量を削減する。
FedBWOはローカルモデルの更新を改善するためにBWOアルゴリズムを使用している。
実験の結果,FedBWOはグローバルモデルの性能とシステム全体の通信効率を著しく向上させることがわかった。
実験結果によると、FedBWOはFedAvg平均21%、FedGWO平均12%の精度でグローバルモデルの精度を高める。
さらに、FedBWOは他の方法と比較して通信コストを劇的に削減する。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Training Heterogeneous Client Models using Knowledge Distillation in
Serverless Federated Learning [0.5510212613486574]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルの協調トレーニングを可能にする、新興の機械学習パラダイムである。
効率的なFLのためのシステム設計に関する最近の研究は、サーバーレスコンピューティング技術を利用することで、リソース効率が向上し、トレーニングコストが削減され、データホルダの複雑なインフラストラクチャ管理負担が軽減されることを示した。
論文 参考訳(メタデータ) (2024-02-11T20:15:52Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。