論文の概要: How Robust is Federated Learning to Communication Error? A Comparison
Study Between Uplink and Downlink Channels
- arxiv url: http://arxiv.org/abs/2310.16652v2
- Date: Fri, 12 Jan 2024 19:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 00:56:07.597114
- Title: How Robust is Federated Learning to Communication Error? A Comparison
Study Between Uplink and Downlink Channels
- Title(参考訳): コミュニケーションエラーに対するフェデレーション学習はいかにロバストか?
アップリンクチャンネルとダウンリンクチャンネルの比較検討
- Authors: Linping Qu, Shenghui Song, Chi-Ying Tsui, and Yuyi Mao
- Abstract要約: 本稿では,アップリンクおよびダウンリンク通信誤りに対するフェデレーション学習の堅牢性について検討する。
FLにおけるアップリンク通信は、ダウンリンク通信よりも高いビット誤り率(BER)を許容できることが示されている。
- 参考スコア(独自算出の注目度): 13.885735785986164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Because of its privacy-preserving capability, federated learning (FL) has
attracted significant attention from both academia and industry. However, when
being implemented over wireless networks, it is not clear how much
communication error can be tolerated by FL. This paper investigates the
robustness of FL to the uplink and downlink communication error. Our
theoretical analysis reveals that the robustness depends on two critical
parameters, namely the number of clients and the numerical range of model
parameters. It is also shown that the uplink communication in FL can tolerate a
higher bit error rate (BER) than downlink communication, and this difference is
quantified by a proposed formula. The findings and theoretical analyses are
further validated by extensive experiments.
- Abstract(参考訳): プライバシー保護機能のため、フェデレーション学習(fl)は学界と産業界の両方から注目を集めている。
しかし,無線ネットワーク上で実装されている場合,FLによる通信エラーの許容範囲は明らかになっていない。
本稿では,FLのアップリンクおよびダウンリンク通信誤りに対する堅牢性について検討する。
理論解析の結果,ロバスト性はクライアント数とモデルパラメータの数値範囲という2つの重要なパラメータに依存することが明らかとなった。
また、FLにおけるアップリンク通信は、ダウンリンク通信よりも高いビット誤り率(BER)を許容できることを示し、この差を提案式で定量化する。
この発見と理論的解析は広範な実験によってさらに検証される。
関連論文リスト
- R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Digital versus Analog Transmissions for Federated Learning over Wireless
Networks [91.20926827568053]
資源制約付きネットワーク上での無線連合学習(FL)における2つの効果的な通信方式を比較した。
まず,デジタルとアナログの両方の伝送方式と,実用的制約下での統一的かつ公正な比較手法について検討する。
無線ネットワークにおけるFL性能評価のために,様々な不完全条件下での普遍収束解析を確立する。
論文 参考訳(メタデータ) (2024-02-15T01:50:46Z) - Improved Convergence Analysis and SNR Control Strategies for Federated
Learning in the Presence of Noise [10.685862129925729]
本稿では,不完全/ノイズのアップリンク通信とダウンリンク通信で分散学習パラダイムを特徴付ける改良された収束解析手法を提案する。
このような不完全なコミュニケーションシナリオは、新興通信システムやプロトコルにおけるFLの実践的な展開に現れます。
論文 参考訳(メタデータ) (2023-07-14T15:35:57Z) - FedDec: Peer-to-peer Aided Federated Learning [15.952956981784219]
フェデレートラーニング(FL)は、プライバシを損なうことなく、複数のエージェントのデータを活用する機械学習モデルのトレーニングを可能にした。
FLは、データ不均一性、部分的なデバイス参加、サーバとの頻繁な通信に弱いことが知られている。
FLの局所勾配更新間でのピアツーピア通信とパラメータ平均化をインターリーブするアルゴリズムであるFedDecを提案する。
論文 参考訳(メタデータ) (2023-06-11T16:30:57Z) - Random Orthogonalization for Federated Learning in Massive MIMO Systems [85.71432283670114]
大規模マルチインプット・マルチアウトプット(MIMO)無線システムにおいて,フェデレートラーニング(FL)のための新しい通信設計を提案する。
ランダム直交化の主な特徴は、FLの密結合と、チャネル硬化と良好な伝播の2つの特徴から生じる。
我々は、この原理をダウンリンク通信フェーズに拡張し、FLの簡易かつ高効率なモデル放送法を開発する。
論文 参考訳(メタデータ) (2022-10-18T14:17:10Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Fast Federated Learning by Balancing Communication Trade-Offs [9.89867121050673]
Federated Learning (FL)は最近、大規模なプライバシ保護機械学習に対して多くの注目を集めている。
頻繁な勾配透過による通信オーバーヘッドはFLを減速させる。
本稿では,Fast FL(Fast FL)とFast FL(Fast FL)の2変数を協調的に動的に調整し,学習誤差を最小限に抑える拡張FLスキームを提案する。
論文 参考訳(メタデータ) (2021-05-23T21:55:14Z) - Federated Learning over Noisy Channels: Convergence Analysis and Design
Examples [17.89437720094451]
Federated Learning (FL) は、アップリンク通信とダウンリンク通信の両方にエラーがある場合に機能します。
flはどの程度の通信ノイズを処理できるのか,学習性能に与える影響は何か?
この作業は、flパイプラインにアップリンクとダウンリンクの両方のノイズチャネルを明示的に組み込むことで、これらの事実上重要な質問に答えることに費やされている。
論文 参考訳(メタデータ) (2021-01-06T18:57:39Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。