論文の概要: On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations
- arxiv url: http://arxiv.org/abs/2208.11848v1
- Date: Thu, 25 Aug 2022 03:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:52:57.159957
- Title: On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations
- Title(参考訳): 複数の基地局を有する無線システムにおけるフェデレーション学習のための微分プライバシーについて
- Authors: Nima Tavangaran, Mingzhe Chen, Zhaohui Yang, Jos\'e Mairton B. Da
Silva Jr., H. Vincent Poor
- Abstract要約: 複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
- 参考スコア(独自算出の注目度): 90.53293906751747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we consider a federated learning model in a wireless system
with multiple base stations and inter-cell interference. We apply a
differential private scheme to transmit information from users to their
corresponding base station during the learning phase. We show the convergence
behavior of the learning process by deriving an upper bound on its optimality
gap. Furthermore, we define an optimization problem to reduce this upper bound
and the total privacy leakage. To find the locally optimal solutions of this
problem, we first propose an algorithm that schedules the resource blocks and
users. We then extend this scheme to reduce the total privacy leakage by
optimizing the differential privacy artificial noise. We apply the solutions of
these two procedures as parameters of a federated learning system. In this
setting, we assume that each user is equipped with a classifier. Moreover, the
communication cells are assumed to have mostly fewer resource blocks than
numbers of users. The simulation results show that our proposed scheduler
improves the average accuracy of the predictions compared with a random
scheduler. Furthermore, its extended version with noise optimizer significantly
reduces the amount of privacy leakage.
- Abstract(参考訳): 本研究では,複数の基地局とセル間干渉を有する無線システムにおける連合学習モデルについて検討する。
学習段階において,ユーザから対応する基地局へ情報を送信するために,差分プライベートスキームを適用する。
本稿では,その最適性ギャップの上界を導出することにより,学習プロセスの収束挙動を示す。
さらに,この上限とプライバシーの漏えいを低減させる最適化問題を定式化する。
この問題の局所最適解を求めるために,まず,リソースブロックとユーザをスケジュールするアルゴリズムを提案する。
次に、この方式を拡張して、差分プライバシー人工ノイズを最適化することにより、プライバシーの漏洩総量を削減する。
この2つの手順の解を連合学習システムのパラメータとして適用する。
この設定では、各ユーザが分類器を備えていると仮定する。
さらに、通信セルは、ユーザ数よりもリソースブロックがほとんど少ないと仮定される。
その結果,提案するスケジューラはランダムスケジューラと比較して予測平均精度が向上することがわかった。
さらに、ノイズオプティマイザを備えた拡張バージョンは、プライバシリークの量を大幅に削減する。
関連論文リスト
- Dynamic Privacy Allocation for Locally Differentially Private Federated
Learning with Composite Objectives [10.528569272279999]
本稿では,強い凸性を持つが非滑らかな問題に対する差分プライベートなフェデレーション学習アルゴリズムを提案する。
提案アルゴリズムは、共有情報に人工ノイズを加えてプライバシーを確保するとともに、時間変化のノイズ分散を動的に割り当て、最適化誤差の上限を最小化する。
解析結果から,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-02T13:30:33Z) - Differentially Private Over-the-Air Federated Learning Over MIMO Fading
Channels [24.534729104570417]
フェデレートラーニング(FL)は、エッジデバイスが機械学習モデルを協調的にトレーニングすることを可能にする。
オーバー・ザ・エアのモデルアグリゲーションは通信効率を向上させるが、無線ネットワーク上のエッジサーバにモデルをアップロードすると、プライバシのリスクが生じる可能性がある。
FLモデルとマルチアンテナサーバとの通信がプライバシー漏洩を増幅することを示す。
論文 参考訳(メタデータ) (2023-06-19T14:44:34Z) - Over-the-Air Federated Averaging with Limited Power and Privacy Budgets [49.04036552090802]
本稿では,電力予算が制限されたプライベート・オーバ・ザ・エア・フェデレーション(DP-OTA-FedAvg)システムについて検討する。
我々は,DP-OTA-FedAvg係数のギャップを最小化し,プライバシー機能を最小化するために解析的問題を改善することを目的としている。
論文 参考訳(メタデータ) (2023-05-05T13:56:40Z) - sqSGD: Locally Private and Communication Efficient Federated Learning [14.60645909629309]
Federated Learning(FL)は、分散データソースから機械学習モデルをトレーニングするテクニックである。
我々は,通信効率と高次元互換性に対処するsqSGDという勾配学習アルゴリズムを開発した。
実験の結果、sqSGDはローカルのプライバシー制約でLeNetやResNetのような大規模なモデルをうまく学習している。
論文 参考訳(メタデータ) (2022-06-21T17:45:35Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。