論文の概要: Federated Learning with Erroneous Communication Links
- arxiv url: http://arxiv.org/abs/2201.12991v1
- Date: Mon, 31 Jan 2022 04:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:09:15.589274
- Title: Federated Learning with Erroneous Communication Links
- Title(参考訳): 誤った通信リンクを用いた連合学習
- Authors: Mahyar Shirvanimoghaddam, Yifeng Gao, Aradhika Guha, Ayoob Salari
- Abstract要約: 我々は,コミュニケーションエラーの存在下でのフェデレーション学習問題を考察する。
我々は,過去のローカル更新を用いることで,FLアルゴリズムが通信エラーの存在下で収束できることをシミュレーションにより示す。
- 参考スコア(独自算出の注目度): 11.737705915896356
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we consider the federated learning (FL) problem in the
presence of communication errors. We model the link between the devices and the
central node (CN) by a packet erasure channel, where the local parameters from
devices are either erased or received correctly by CN with probability $e$ and
$1-e$, respectively. We provide mathematical proof for the convergence of the
FL algorithm in the presence of communication errors, where the CN uses past
local updates when the fresh updates are not received from some devices. We
show via simulations that by using the past local updates, the FL algorithm can
converge in the presence of communication errors. We also show that when the
dataset is uniformly distributed among devices, the FL algorithm that only uses
fresh updates and discards missing updates might converge faster than the FL
algorithm that uses past local updates.
- Abstract(参考訳): 本稿では,コミュニケーションエラーの存在下でのフェデレーション学習(FL)問題について考察する。
デバイスと中央ノード(CN)のリンクをパケット消去チャネルでモデル化し、デバイスからのローカルパラメータをそれぞれe$と1-e$の確率でCNによって消去または正しく受信する。
通信エラーが存在する場合のFLアルゴリズムの収束を数学的に証明し、CNは一部のデバイスから更新を受け取らない場合に、過去のローカル更新を使用する。
我々は,過去のローカル更新を用いて,FLアルゴリズムが通信エラーの存在下で収束できることをシミュレーションにより示す。
また、データセットがデバイス間で均一に分散されている場合、更新のみを使用するFLアルゴリズムが、過去のローカル更新を使用するFLアルゴリズムよりも早く収束する可能性があることを示す。
関連論文リスト
- Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Over-the-Air Federated Learning with Retransmissions (Extended Version) [21.37147806100865]
資源制約のある無線ネットワーク上でのフェデレート学習(FL)の収束に対する推定誤差の影響について検討する。
資源制約のある無線ネットワーク上でFL収束を改善する手法として再送信を提案する。
論文 参考訳(メタデータ) (2021-11-19T15:17:15Z) - To Talk or to Work: Delay Efficient Federated Learning over Mobile Edge
Devices [13.318419040823088]
モバイルデバイスは、中央サーバの調整の下で、自身のデータに基づいてモデルをトレーニングするために協力する。
データの中心的な可用性がなければ、計算ノードは収束を達成するためにしばしばモデル更新を伝える必要がある。
本稿では,モデルが収束するために必要な全時間(計算待ち時間と通信待ち時間の両方)と通信ラウンドを削減できる遅延効率FL機構を提案する。
論文 参考訳(メタデータ) (2021-11-01T00:35:32Z) - STEM: A Stochastic Two-Sided Momentum Algorithm Achieving Near-Optimal
Sample and Communication Complexities for Federated Learning [58.6792963686231]
フェデレートラーニング(FL)とは、複数のワーカノード(WN)がローカルデータを用いてジョイントモデルを構築するパラダイムを指す。
WNの最小更新方向、最初のミニバッチサイズ、ローカル更新頻度をどうやって選択するかは明らかになっていない。
局所的な更新頻度と局所的なミニサイズとの間にはトレードオフ曲線があることを示し、上記の複雑さを維持できることを示す。
論文 参考訳(メタデータ) (2021-06-19T06:13:45Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。