論文の概要: Adap DP-FL: Differentially Private Federated Learning with Adaptive
Noise
- arxiv url: http://arxiv.org/abs/2211.15893v1
- Date: Tue, 29 Nov 2022 03:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 18:09:07.611933
- Title: Adap DP-FL: Differentially Private Federated Learning with Adaptive
Noise
- Title(参考訳): Adap DP-FL:適応雑音による個人差分学習
- Authors: Jie Fu, Zhili Chen and Xiao Han
- Abstract要約: フェデレートラーニングは、クライアントにローカルトレーニングモデルのみを公開することによって、孤立したデータアイランドの問題に対処しようとしている。
近年、データプライバシを保護するためのフェデレーション学習に差分プライバシーが適用されているが、付加されるノイズは学習性能を著しく低下させる可能性がある。
適応雑音付きフェデレーション学習のための差分プライベートスキーム(Adap DP-FL)を提案する。
- 参考スコア(独自算出の注目度): 30.005017338416327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning seeks to address the issue of isolated data islands by
making clients disclose only their local training models. However, it was
demonstrated that private information could still be inferred by analyzing
local model parameters, such as deep neural network model weights. Recently,
differential privacy has been applied to federated learning to protect data
privacy, but the noise added may degrade the learning performance much.
Typically, in previous work, training parameters were clipped equally and
noises were added uniformly. The heterogeneity and convergence of training
parameters were simply not considered. In this paper, we propose a
differentially private scheme for federated learning with adaptive noise (Adap
DP-FL). Specifically, due to the gradient heterogeneity, we conduct adaptive
gradient clipping for different clients and different rounds; due to the
gradient convergence, we add decreasing noises accordingly. Extensive
experiments on real-world datasets demonstrate that our Adap DP-FL outperforms
previous methods significantly.
- Abstract(参考訳): フェデレーション学習は、クライアントがローカルトレーニングモデルのみを公開することで、孤立したデータ島の問題に対処しようとしている。
しかし,深層ニューラルネットワークモデル重みなどの局所モデルパラメータを解析することにより,プライベートな情報も推測できることが実証された。
近年、データプライバシを保護するためのフェデレーション学習に差分プライバシーが適用されているが、付加されるノイズは学習性能を著しく低下させる可能性がある。
通常、前回の作業ではトレーニングパラメータを均等にクリップし、ノイズを均一に追加した。
トレーニングパラメータの多様性と収束は、単に考慮されなかった。
本稿では適応雑音(Adap DP-FL)を用いたフェデレーション学習のための差分プライベートスキームを提案する。
具体的には, 勾配の不均質性から, 異なるクライアントと異なるラウンドに対して適応的な勾配クリッピングを行う。
実世界のデータセットに対する大規模な実験は、我々のAdap DP-FLが従来の手法よりも大幅に優れていることを示した。
関連論文リスト
- Rethinking Improved Privacy-Utility Trade-off with Pre-existing Knowledge for DP Training [31.559864332056648]
異種雑音(DP-Hero)を有する一般微分プライバシーフレームワークを提案する。
DP-Hero上では、勾配更新に注入されたノイズが不均一であり、予め確立されたモデルパラメータによって誘導されるDP-SGDの異種バージョンをインスタンス化する。
提案するDP-Heroの有効性を検証・説明するための総合的な実験を行い,最新技術と比較するとトレーニング精度が向上した。
論文 参考訳(メタデータ) (2024-09-05T08:40:54Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - On the Convergence and Calibration of Deep Learning with Differential
Privacy [12.297499996547925]
差分プライベート(DP)トレーニングは、データプライバシを通常、収束を遅くするコストで保持する。
ノイズ付加はプライバシーリスクにのみ影響するが、収束や校正には影響しない。
対照的に、大きなクリッピング規範で訓練されたDPモデルは、同じプライバシー保証と類似の精度を享受するが、はるかにテキスト化されている。
論文 参考訳(メタデータ) (2021-06-15T01:32:29Z) - Differentially Private Deep Learning with Direct Feedback Alignment [15.410557873153833]
直接フィードバックアライメント(DFA)を用いたディープニューラルネットワークのトレーニングのための最初の微分プライベート手法を提案する。
DFAは、様々なアーキテクチャにおけるバックプロップベースの差分プライベートトレーニングと比較して、精度(しばしば10-20%)が大幅に向上する。
論文 参考訳(メタデータ) (2020-10-08T00:25:22Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。