論文の概要: Scalable and Reliable Over-the-Air Federated Edge Learning
- arxiv url: http://arxiv.org/abs/2407.11807v1
- Date: Tue, 16 Jul 2024 14:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 14:23:08.642877
- Title: Scalable and Reliable Over-the-Air Federated Edge Learning
- Title(参考訳): スケーラブルで信頼性の高い越冬型エッジラーニング
- Authors: Maximilian Egger, Christoph Hofmeister, Cem Kaya, Rawad Bitar, Antonia Wachter-Zeh,
- Abstract要約: オーバー・ザ・エア計算(AirComp)は、クライアントの更新をチャネル上で集約することで、通信リソースを節約する。
FEELのAirCompではチャネル符号化方式が提案されている。
本稿では,クライアント数に一定の誤り訂正機能を有するディジタル格子型コード構築法を提案する。
- 参考スコア(独自算出の注目度): 18.283135460297583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated edge learning (FEEL) has emerged as a core paradigm for large-scale optimization. However, FEEL still suffers from a communication bottleneck due to the transmission of high-dimensional model updates from the clients to the federator. Over-the-air computation (AirComp) leverages the additive property of multiple-access channels by aggregating the clients' updates over the channel to save communication resources. While analog uncoded transmission can benefit from the increased signal-to-noise ratio (SNR) due to the simultaneous transmission of many clients, potential errors may severely harm the learning process for small SNRs. To alleviate this problem, channel coding approaches were recently proposed for AirComp in FEEL. However, their error-correction capability degrades with an increasing number of clients. We propose a digital lattice-based code construction with constant error-correction capabilities in the number of clients, and compare to nested-lattice codes, well-known for their optimal rate and power efficiency in the point-to-point AWGN channel.
- Abstract(参考訳): フェデレーションエッジ学習(FEEL)は、大規模最適化のコアパラダイムとして登場した。
しかし、FEELはクライアントからフェデレーターへの高次元モデル更新の伝達によって通信ボトルネックに悩まされている。
オーバー・ザ・エア計算(AirComp)は、通信リソースを節約するためにクライアントの更新をチャネル越しに集約することで、マルチアクセスチャネルの付加的特性を活用する。
アナログアンコード伝送は、多くのクライアントの同時送信による信号対雑音比(SNR)の増大による恩恵を受けるが、潜在的なエラーは小さなSNRの学習プロセスに深刻な影響を及ぼす可能性がある。
この問題を緩和するため、最近FEELのAirComp向けにチャネル符号化手法が提案されている。
しかし、エラー訂正能力はクライアント数の増加とともに低下する。
本稿では,クライアント数に一定の誤り訂正機能を有するディジタル格子型コード構築法を提案し,その最適レートと電力効率で知られているネスト付き格子符号との比較を行った。
関連論文リスト
- Energy-Efficient Channel Decoding for Wireless Federated Learning: Convergence Analysis and Adaptive Design [13.885735785986164]
本稿では,移動体クライアントにおけるチャネルデコーダのエネルギー消費を削減するための,エネルギー効率のよい適応型チャネルデコーダを提案する。
我々は,通信エラーのある無線FLが,エラーのない通信の場合と同じ速度で収束できることを理論的に証明する。
実験により,提案手法は同じ学習精度を維持しつつ,既存の手法と比較してチャネル復号化エネルギー消費量を20%削減することを示した。
論文 参考訳(メタデータ) (2024-06-26T08:59:49Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [0.0]
フェデレートラーニング(FL)は、データを複数の場所に保持するモデル("clients")をセキュアにトレーニングするために提案されている。
FLアルゴリズムの性能を阻害する2つの大きな課題は、階層化クライアントによって引き起こされる長いトレーニング時間と、非イドローカルなデータ分布("client drift")によるモデル精度の低下である。
本稿では,Asynchronous Exact Averaging (AREA, Asynchronous Exact Averaging) を提案する。Asynchronous Exact Averaging (AREA) は,通信を利用して収束を高速化し,拡張性を向上し,クライアント更新頻度の変動によるクライアントのドリフトの補正にクライアントメモリを利用する。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - FLSTRA: Federated Learning in Stratosphere [22.313423693397556]
高度の高いプラットフォームステーションは、多くの地球上のクライアントが、トレーニングデータなしでグローバルなモデルを協調的に学習できるようにする。
我々は、FL遅延を最小限に抑えるために、アップリンクとダウンリンクのための共同クライアント選択とリソース割り当てアルゴリズムを開発した。
次に,その収束の上限を導出しながら,FLの精度を目標とする通信資源認識アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-01T00:52:55Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Quantized Federated Learning under Transmission Delay and Outage
Constraints [30.892724364965005]
フェデレートラーニング(Federated Learning)は、無線エッジ内の巨大なモバイルデバイスと協調して機械学習モデルをトレーニングする、実行可能な分散学習パラダイムである。
無線リソースが限られている実用的なシステムでは、多数のモデルパラメータの送信は量子化エラー(QE)と送信停止(TO)に必然的に悩まされる。
我々は,無線リソースと量子化ビットをクライアント間で共同で割り当て,QEを最小化するとともに,クライアントがTO確率を持つようにする,堅牢なFLスキームFedTOEを提案する。
論文 参考訳(メタデータ) (2021-06-17T11:29:12Z) - Adaptive Quantization of Model Updates for Communication-Efficient
Federated Learning [75.45968495410047]
クライアントノードと中央集約サーバ間のモデル更新の通信は、連合学習において大きなボトルネックとなる。
グラディエント量子化(Gradient Quantization)は、各モデル更新間の通信に必要なビット数を削減する効果的な方法である。
通信効率と低エラーフロアを実現することを目的としたAdaFLと呼ばれる適応量子化戦略を提案する。
論文 参考訳(メタデータ) (2021-02-08T19:14:21Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z) - Cluster-Based Cooperative Digital Over-the-Air Aggregation for Wireless
Federated Edge Learning [9.179817518536545]
空気上計算(AirComp)を用いた無線エッジにおける連合学習システムについて検討する。
このようなシステムでは、ユーザは、高速なモデルアグリゲーションを実現するために、マルチアクセスチャネル上でメッセージを同時に送信する。
本稿では,ユーザが位相補正を行い,全電力で送信する送信機の要求を緩和する改良されたディジタルAirComp方式を提案する。
論文 参考訳(メタデータ) (2020-08-03T16:29:52Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。