論文の概要: Quantized Federated Learning under Transmission Delay and Outage
Constraints
- arxiv url: http://arxiv.org/abs/2106.09397v1
- Date: Thu, 17 Jun 2021 11:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:36:38.622993
- Title: Quantized Federated Learning under Transmission Delay and Outage
Constraints
- Title(参考訳): 伝送遅延と停止制約下での量子化連合学習
- Authors: Yanmeng Wang, Yanqing Xu, Qingjiang Shi, Tsung-Hui Chang
- Abstract要約: フェデレートラーニング(Federated Learning)は、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムである。
無線リソースが限られている実用的なシステムでは、多数のモデルパラメータの送信は量子化エラー(QE)と送信停止(TO)に必然的に悩まされる。
我々は,無線リソースと量子化ビットをクライアント間で共同で割り当て,QEを最小化するとともに,クライアントがTO確率を持つようにする,堅牢なFLスキームFedTOEを提案する。
- 参考スコア(独自算出の注目度): 30.892724364965005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been recognized as a viable distributed learning
paradigm which trains a machine learning model collaboratively with massive
mobile devices in the wireless edge while protecting user privacy. Although
various communication schemes have been proposed to expedite the FL process,
most of them have assumed ideal wireless channels which provide reliable and
lossless communication links between the server and mobile clients.
Unfortunately, in practical systems with limited radio resources such as
constraint on the training latency and constraints on the transmission power
and bandwidth, transmission of a large number of model parameters inevitably
suffers from quantization errors (QE) and transmission outage (TO). In this
paper, we consider such non-ideal wireless channels, and carry out the first
analysis showing that the FL convergence can be severely jeopardized by TO and
QE, but intriguingly can be alleviated if the clients have uniform outage
probabilities. These insightful results motivate us to propose a robust FL
scheme, named FedTOE, which performs joint allocation of wireless resources and
quantization bits across the clients to minimize the QE while making the
clients have the same TO probability. Extensive experimental results are
presented to show the superior performance of FedTOE for a deep learning-based
classification task with transmission latency constraints.
- Abstract(参考訳): フェデレートラーニング(FL)は、ユーザのプライバシを保護しながら、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムとして認識されている。
flプロセスを促進するために様々な通信方式が提案されているが、その多くは、サーバとモバイルクライアント間の信頼性とロスレスな通信リンクを提供する理想的な無線チャネルを想定している。
残念なことに、訓練遅延の制約や送信電力と帯域幅の制約といった無線リソースが制限された実用的なシステムでは、多数のモデルパラメータの送信は、必然的に量子化エラー(QE)と送信停止(TO)に悩まされる。
本稿では,そのような非理想的無線チャネルについて検討し,クライアントが一様停止確率を持つ場合,fl収束をtoおよびqeによってひどく危うくすることができることを示す最初の分析を行う。
これらの洞察に富んだ結果は、クライアント間で無線リソースと量子化ビットを共同で割り当て、QEを最小化し、クライアントがTO確率を持つようにする、堅牢なFLスキームであるFedTOEを提案する動機となっている。
トランスミッションレイテンシ制約のある深層学習に基づく分類タスクにおいて,feedtoeの優れた性能を示すために,広範な実験結果が得られた。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - A SER-based Device Selection Mechanism in Multi-bits Quantization Federated Learning [6.922030110539386]
本稿では,無線通信が記号誤り率(SER)による連合学習(FL)に与える影響を解析する。
FLシステムでは,非直交多重アクセス(NOMA)を基本的な通信フレームワークとして使用することで,複数のユーザによる通信混雑や干渉を低減することができる。
勾配パラメータを複数のビットに量子化し、より多くの勾配情報を最大範囲に保持し、伝送エラーの耐性を向上させる。
論文 参考訳(メタデータ) (2024-04-20T06:27:01Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - FLSTRA: Federated Learning in Stratosphere [22.313423693397556]
高度の高いプラットフォームステーションは、多くの地球上のクライアントが、トレーニングデータなしでグローバルなモデルを協調的に学習できるようにする。
我々は、FL遅延を最小限に抑えるために、アップリンクとダウンリンクのための共同クライアント選択とリソース割り当てアルゴリズムを開発した。
次に,その収束の上限を導出しながら,FLの精度を目標とする通信資源認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-01T00:52:55Z) - CFLIT: Coexisting Federated Learning and Information Transfer [18.30671838758503]
本研究では,モバイルエッジネットワークにおける無線放送と従来型情報伝達(IT)の共存性について検討する。
FLとITデバイスがOFDMシステムで無線スペクトルを共有するCFLIT(Commanded Learning and Information Transfer)通信フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T13:17:28Z) - Over-the-Air Federated Learning with Retransmissions (Extended Version) [21.37147806100865]
資源制約のある無線ネットワーク上でのフェデレート学習(FL)の収束に対する推定誤差の影響について検討する。
資源制約のある無線ネットワーク上でFL収束を改善する手法として再送信を提案する。
論文 参考訳(メタデータ) (2021-11-19T15:17:15Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。