論文の概要: Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication
- arxiv url: http://arxiv.org/abs/2102.04737v1
- Date: Tue, 9 Feb 2021 10:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 16:15:40.199448
- Title: Federated Learning with Local Differential Privacy: Trade-offs between
Privacy, Utility, and Communication
- Title(参考訳): 地域差分プライバシによるフェデレーション学習 - プライバシとユーティリティ,コミュニケーションのトレードオフ
- Authors: Muah Kim, Onur G\"unl\"u, and Rafael F. Schaefer
- Abstract要約: フェデレートラーニング(FL)は、分散された構造のため、大量のデータをプライベートにトレーニングすることができる。
SGDを用いたFLモデルにおいて,ユーザデータのローカル差分プライバシー(LDP)を維持するためのガウス的メカニズムを検討する。
その結果,既存のプライバシ会計法と比較して,実用性が大きく,伝送速度も低いことが保証された。
- 参考スコア(独自算出の注目度): 22.171647103023773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows to train a massive amount of data privately
due to its decentralized structure. Stochastic gradient descent (SGD) is
commonly used for FL due to its good empirical performance, but sensitive user
information can still be inferred from weight updates shared during FL
iterations. We consider Gaussian mechanisms to preserve local differential
privacy (LDP) of user data in the FL model with SGD. The trade-offs between
user privacy, global utility, and transmission rate are proved by defining
appropriate metrics for FL with LDP. Compared to existing results, the query
sensitivity used in LDP is defined as a variable and a tighter privacy
accounting method is applied. The proposed utility bound allows heterogeneous
parameters over all users. Our bounds characterize how much utility decreases
and transmission rate increases if a stronger privacy regime is targeted.
Furthermore, given a target privacy level, our results guarantee a
significantly larger utility and a smaller transmission rate as compared to
existing privacy accounting methods.
- Abstract(参考訳): フェデレーションラーニング(FL)は、分散構造のため、大量のデータをプライベートにトレーニングすることができます。
確率勾配降下 (SGD) は経験的性能がよいため一般的にはFLに使用されるが, FLイテレーション中に共有される重み更新から, 感度の高いユーザ情報を推測することができる。
SGDを用いたFLモデルにおけるユーザデータの局所差分プライバシー(LDP)を維持するためのガウス機構を検討する。
ユーザプライバシ,グローバルユーティリティ,トランスミッションレートのトレードオフは,FL と LDP の適切なメトリクスを定義することによって証明される。
既存の結果と比較して, LDPで使用されるクエリ感度は変数として定義され, より厳密なプライバシ会計法が適用される。
提案するユーティリティバウンドは、全ユーザにわたって異種パラメータを許容する。
私たちの境界は、より強いプライバシー体制がターゲットとされている場合、ユーティリティの減少と伝送速度の増加を特徴づけます。
さらに,対象とするプライバシレベルを考慮すれば,従来のプライバシ会計手法に比べて,はるかに大きなユーティリティとより少ない送信率を保証できる。
関連論文リスト
- Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Sparse Federated Learning with Hierarchical Personalized Models [24.763028713043468]
フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
論文 参考訳(メタデータ) (2022-03-25T09:06:42Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Privacy Assessment of Federated Learning using Private Personalized
Layers [0.9023847175654603]
Federated Learning(FL)は、データを共有することなく、複数の参加者にまたがって学習モデルをトレーニングするコラボレーティブスキームである。
プライベートなパーソナライズされたレイヤを用いてFLスキームの実用性とプライバシのトレードオフを定量化する。
論文 参考訳(メタデータ) (2021-06-15T11:40:16Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。