論文の概要: Adaptive Quantization Resolution and Power Control for Federated Learning over Cell-free Networks
- arxiv url: http://arxiv.org/abs/2412.10878v1
- Date: Sat, 14 Dec 2024 16:08:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:54:12.345413
- Title: Adaptive Quantization Resolution and Power Control for Federated Learning over Cell-free Networks
- Title(参考訳): セルフリーネットワーク上でのフェデレーション学習のための適応量子化分解能と電力制御
- Authors: Afsaneh Mahmoudi, Emil Björnson,
- Abstract要約: Federated Learning(FL)は、ローカルモデルの更新を生のデータセットではなくサーバと交換することで、グローバルモデルをトレーニングする分散学習フレームワークである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)は、同じ時間/周波数のリソースを同じレートで多くのユーザに提供する、有望なソリューションである。
本稿では, フラッグラー効果を緩和するために, FLアプリケーションと物理層を同時最適化する。
- 参考スコア(独自算出の注目度): 41.23236059700041
- License:
- Abstract: Federated learning (FL) is a distributed learning framework where users train a global model by exchanging local model updates with a server instead of raw datasets, preserving data privacy and reducing communication overhead. However, the latency grows with the number of users and the model size, impeding the successful FL over traditional wireless networks with orthogonal access. Cell-free massive multiple-input multipleoutput (CFmMIMO) is a promising solution to serve numerous users on the same time/frequency resource with similar rates. This architecture greatly reduces uplink latency through spatial multiplexing but does not take application characteristics into account. In this paper, we co-optimize the physical layer with the FL application to mitigate the straggler effect. We introduce a novel adaptive mixed-resolution quantization scheme of the local gradient vector updates, where only the most essential entries are given high resolution. Thereafter, we propose a dynamic uplink power control scheme to manage the varying user rates and mitigate the straggler effect. The numerical results demonstrate that the proposed method achieves test accuracy comparable to classic FL while reducing communication overhead by at least 93% on the CIFAR-10, CIFAR-100, and Fashion-MNIST datasets. We compare our methods against AQUILA, Top-q, and LAQ, using the max-sum rate and Dinkelbach power control schemes. Our approach reduces the communication overhead by 75% and achieves 10% higher test accuracy than these benchmarks within a constrained total latency budget.
- Abstract(参考訳): Federated Learning(FL)は、ユーザが生のデータセットではなくサーバでローカルモデルのアップデートを交換し、データのプライバシを保護し、通信オーバーヘッドを減らすことで、グローバルモデルをトレーニングする分散学習フレームワークである。
しかし、ユーザ数とモデルサイズによってレイテンシが増大し、直交アクセスを持つ従来の無線ネットワークよりもFLが成功した。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)は、同じ時間/周波数のリソースを同じレートで多くのユーザに提供する、有望なソリューションである。
このアーキテクチャは、空間多重化によるアップリンク遅延を大幅に低減するが、アプリケーション特性を考慮に入れない。
本稿では, フラッグラー効果を緩和するために, FLアプリケーションと物理層を同時最適化する。
局所勾配ベクトル更新の適応型混合分解能量子化方式を導入する。
その後,様々なユーザ率を管理し,トラグラー効果を緩和する動的アップリンク電力制御方式を提案する。
提案手法は,CIFAR-10,CIFAR-100,Fashion-MNISTデータセットにおいて,通信オーバーヘッドを少なくとも93%削減しつつ,従来のFLに匹敵するテスト精度を実現する。
AQUILA, Top-q, LAQ に対して最大値と Dinkelbach の電力制御方式を用いて比較を行った。
提案手法は,通信オーバヘッドを75%削減し,これらのベンチマークよりも10%高いテスト精度を実現する。
関連論文リスト
- Accelerating Energy-Efficient Federated Learning in Cell-Free Networks with Adaptive Quantization [45.99908087352264]
フェデレートラーニング(FL)により、クライアントはローカルデータの代わりに学習パラメータを共有でき、通信オーバーヘッドを低減できる。
従来の無線ネットワークはFLでレイテンシの問題に直面している。
本稿では,クライアントサーバ間のシームレスな協調作業に最適化されたアップリンク電力割り当てを特徴とするエネルギー効率,低レイテンシFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-30T08:10:21Z) - Joint Energy and Latency Optimization in Federated Learning over Cell-Free Massive MIMO Networks [36.6868658064971]
Federated Learning(FL)は、ユーザが生のデータセットではなくサーバとFLモデルを交換する分散学習パラダイムである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)はFLを実装する上で有望なアーキテクチャである。
本稿では、各ユーザの電力が他のユーザのエネルギーとレイテンシに与える影響を考慮し、FLにおけるCFmMIMO上のアップリンク電力割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-04-28T19:24:58Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLCC: Efficient Distributed Federated Learning on IoMT over CSMA/CA [0.0]
フェデレートラーニング(FL)は、プライバシー保護のための有望なアプローチとして登場した。
本稿では,アドホックネットワーク上で遠隔医療システムを改善するアプリケーションにおけるFLの性能について検討する。
ネットワーク性能を評価するための指標として,1) 干渉を最小限に抑えながら伝送を成功させる確率,2) 精度と損失の点で分散FLモデルの性能を示す。
論文 参考訳(メタデータ) (2023-03-29T16:36:42Z) - Federated Learning with Flexible Control [30.65854375019346]
フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
論文 参考訳(メタデータ) (2022-12-16T14:21:29Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。