論文の概要: Over-the-Air Federated Averaging with Limited Power and Privacy Budgets
- arxiv url: http://arxiv.org/abs/2305.03547v1
- Date: Fri, 5 May 2023 13:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 13:42:37.947732
- Title: Over-the-Air Federated Averaging with Limited Power and Privacy Budgets
- Title(参考訳): 限られた電力とプライバシー予算によるオーバーエアフェデレーション平均化
- Authors: Na Yan, Kezhi Wang, Cunhua Pan, Kok Keong Chai, Feng Shu, and
Jiangzhou Wang
- Abstract要約: 本稿では,電力予算が制限されたプライベート・オーバ・ザ・エア・フェデレーション(DP-OTA-FedAvg)システムについて検討する。
我々は,DP-OTA-FedAvg係数のギャップを最小化し,プライバシー機能を最小化するために解析的問題を改善することを目的としている。
- 参考スコア(独自算出の注目度): 49.04036552090802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To jointly overcome the communication bottleneck and privacy leakage of
wireless federated learning (FL), this paper studies a differentially private
over-the-air federated averaging (DP-OTA-FedAvg) system with a limited sum
power budget. With DP-OTA-FedAvg, the gradients are aligned by an alignment
coefficient and aggregated over the air, and channel noise is employed to
protect privacy. We aim to improve the learning performance by jointly
designing the device scheduling, alignment coefficient, and the number of
aggregation rounds of federated averaging (FedAvg) subject to sum power and
privacy constraints. We first present the privacy analysis based on
differential privacy (DP) to quantify the impact of the alignment coefficient
on privacy preservation in each communication round. Furthermore, to study how
the device scheduling, alignment coefficient, and the number of the global
aggregation affect the learning process, we conduct the convergence analysis of
DP-OTA-FedAvg in the cases of convex and non-convex loss functions. Based on
these analytical results, we formulate an optimization problem to minimize the
optimality gap of the DP-OTA-FedAvg subject to limited sum power and privacy
budgets. The problem is solved by decoupling it into two sub-problems. Given
the number of communication rounds, we conclude the relationship between the
number of scheduled devices and the alignment coefficient, which offers a set
of potential optimal solution pairs of device scheduling and the alignment
coefficient. Thanks to the reduced search space, the optimal solution can be
efficiently obtained. The effectiveness of the proposed policy is validated
through simulations.
- Abstract(参考訳): 本稿では,無線フェデレーション学習(FL)の通信ボトルネックとプライバシリークを共同で克服するため,差分的にプライベートなオーバーザエアフェデレーション平均化(DP-OTA-FedAvg)システムについて検討する。
DP-OTA-FedAvgでは、勾配はアライメント係数で整列され、空気上に集約され、プライバシーを保護するためにチャネルノイズが使用される。
本研究の目的は,デバイススケジューリング,アライメント係数,フェデレーション平均化ラウンド数(FedAvg)の合計電力とプライバシ制約を考慮した共同設計を行うことによる学習性能の向上である。
まず、差分プライバシー(DP)に基づくプライバシ分析を行い、各通信ラウンドにおけるアライメント係数がプライバシ保護に与える影響を定量化する。
さらに,デバイススケジューリング,アライメント係数,グローバルアグリゲーションの数が学習プロセスにどのように影響するかを検討するために,凸損失関数や非凸損失関数の場合のdp-ota-fedavgの収束解析を行う。
これらの分析結果をもとに, dp-ota-fedavgの最適性ギャップを最小化するための最適化問題を定式化する。
この問題は2つの部分問題に分解することで解決される。
通信ラウンドの数を考えると、スケジュールされたデバイス数とアライメント係数の関係を結論づけ、デバイススケジューリングの潜在的な最適解対とアライメント係数のセットを提供する。
探索空間の削減により、最適解を効率的に得ることができる。
提案手法の有効性をシミュレーションにより検証した。
関連論文リスト
- Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Integrated Sensing, Computation, and Communication for UAV-assisted
Federated Edge Learning [52.7230652428711]
フェデレーションエッジ学習(FEEL)は、エッジデバイスとサーバ間の定期的な通信を通じて、プライバシ保護モデルトレーニングを可能にする。
無人航空機(UAV)搭載エッジデバイスは、効率的なデータ収集における柔軟性と移動性のため、FEELにとって特に有利である。
論文 参考訳(メタデータ) (2023-06-05T16:01:33Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Gradient Sparsification for Efficient Wireless Federated Learning with
Differential Privacy [25.763777765222358]
フェデレートラーニング(FL)により、分散クライアントは、生データを互いに共有することなく、機械学習モデルを協調的にトレーニングできる。
モデルのサイズが大きくなるにつれて、送信帯域の制限によるトレーニングのレイテンシが低下し、個人情報が劣化すると同時に、差分プライバシ(DP)保護を使用する。
我々は、収束性能を犠牲にすることなく、トレーニング効率を向上させるために、FLフレームワーク無線チャネルのスペース化を提案する。
論文 参考訳(メタデータ) (2023-04-09T05:21:15Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Wireless Federated Learning with Limited Communication and Differential
Privacy [21.328507360172203]
本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,リモートユーザにおけるローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。
論文 参考訳(メタデータ) (2021-06-01T15:23:12Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。