論文の概要: Over-the-Air Federated Learning with Joint Adaptive Computation and
Power Control
- arxiv url: http://arxiv.org/abs/2205.05867v1
- Date: Thu, 12 May 2022 03:28:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 23:21:06.678523
- Title: Over-the-Air Federated Learning with Joint Adaptive Computation and
Power Control
- Title(参考訳): 適応計算と電力制御を併用したオーバーザ・エアフェデレーション学習
- Authors: Haibo Yang, Peiwen Qiu, Jia Liu and Aylin Yener
- Abstract要約: 本稿では,オーバー・ザ・エア・コンピューティング・ラーニング(OTA-FL)について考察する。
OTA-FLは、無線媒体の重ね合わせ特性を利用して、空気上のアグリゲーションを無料で行う。
- 参考スコア(独自算出の注目度): 30.7130850260223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers over-the-air federated learning (OTA-FL). OTA-FL
exploits the superposition property of the wireless medium, and performs model
aggregation over the air for free. Thus, it can greatly reduce the
communication cost incurred in communicating model updates from the edge
devices. In order to fully utilize this advantage while providing comparable
learning performance to conventional federated learning that presumes model
aggregation via noiseless channels, we consider the joint design of
transmission scaling and the number of local iterations at each round, given
the power constraint at each edge device. We first characterize the training
error due to such channel noise in OTA-FL by establishing a fundamental lower
bound for general functions with Lipschitz-continuous gradients. Then, by
introducing an adaptive transceiver power scaling scheme, we propose an
over-the-air federated learning algorithm with joint adaptive computation and
power control (ACPC-OTA-FL). We provide the convergence analysis for
ACPC-OTA-FL in training with non-convex objective functions and heterogeneous
data. We show that the convergence rate of ACPC-OTA-FL matches that of FL with
noise-free communications.
- Abstract(参考訳): 本稿では,ota-fl(over-the-air federated learning)について述べる。
OTA-FLは、無線媒体の重ね合わせ特性を利用して、空気上のモデルアグリゲーションを無料で行う。
これにより、エッジデバイスからの通信モデル更新で発生する通信コストを大幅に削減することができる。
この利点を最大限に活用し、ノイズのないチャネルによるモデルアグリゲーションを想定した従来型のフェデレーション学習に匹敵する学習性能を提供しながら、各エッジデバイスにおける電力制約を考慮した伝送スケーリングと各ラウンドの局所イテレーション数について考察する。
我々はまず,リプシッツ連続勾配を持つ一般関数の基本下界を確立することにより,OTA-FLのチャネルノイズによるトレーニング誤差を特徴づける。
次に,適応的トランシーバパワースケーリングスキームを導入することで,協調適応計算と電力制御(acpc-ota-fl)を備えた,空気上フェデレート学習アルゴリズムを提案する。
非凸目的関数と異種データを用いたトレーニングにおけるACPC-OTA-FLの収束解析について述べる。
本稿では,ACPC-OTA-FLの収束速度がFLのノイズフリー通信と一致することを示す。
- 全文 参考訳へのリンク
関連論文リスト
- SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Communication-Efficient Stochastic Zeroth-Order Optimization for
Federated Learning [28.65635956111857]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを共有せずに、グローバルモデルを協調的にトレーニングすることを可能にする。
FLの訓練効率を向上させるため,一階計算から一階法まで,様々なアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2022-01-24T08:56:06Z) - Resource-Efficient and Delay-Aware Federated Learning Design under Edge
Heterogeneity [10.702853653891902]
フェデレーテッド・ラーニング(FL)は、ワイヤレスエッジデバイスに機械学習を分散するための一般的な方法論として登場した。
本研究では,FLにおけるモデル性能と資源利用のトレードオフを最適化することを検討する。
提案したStoFedDelAvは、FL計算ステップに局所言語モデルコンバインダーを組み込む。
論文 参考訳(メタデータ) (2021-12-27T22:30:15Z) - Hierarchical Over-the-Air Federated Edge Learning [26.553214197361626]
モバイルユーザ(MU)の近くにクラスタを形成するための階層的オーバー・ザ・エア・フェデレーション・ラーニング(HOTAFL)を提案する。
我々は,グローバルアグリゲーション前の各クラスタの局所アグリゲーションがOTA FLよりも優れた性能と高速な収束をもたらすことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2021-12-21T13:02:10Z) - Over-the-Air Federated Learning with Retransmissions (Extended Version) [21.37147806100865]
資源制約のある無線ネットワーク上でのフェデレート学習(FL)の収束に対する推定誤差の影響について検討する。
資源制約のある無線ネットワーク上でFL収束を改善する手法として再送信を提案する。
論文 参考訳(メタデータ) (2021-11-19T15:17:15Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Unit-Modulus Wireless Federated Learning Via Penalty Alternating
Minimization [64.76619508293966]
Wireless Federated Learning(FL)は、分散データセットから無線通信を介してグローバルパラメトリックモデルをトレーニングする、新興機械学習パラダイムである。
本稿では、ローカルモデルパラメータをアップロードし、無線通信を介してグローバルモデルパラメータを算出する無線FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T08:19:54Z) - User Scheduling for Federated Learning Through Over-the-Air Computation [22.853678584121862]
FL(Federated Learning)と呼ばれる新しい機械学習技術は、エッジデバイスにおけるデータの保存と、学習プロセスにおけるMLモデルパラメータの交換のみを目的としている。
FLは通信ニーズを減らすだけでなく、地域のプライバシーを守るのにも役立ちます。
AirCompは、アナログ変調を用いて複数のデバイスが同時にデータを送信できるようにすることで、データを送信しながら計算することができる。
論文 参考訳(メタデータ) (2021-08-05T23:58:15Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。