論文の概要: LDP-Fed: Federated Learning with Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2006.03637v1
- Date: Fri, 5 Jun 2020 19:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:35:55.520358
- Title: LDP-Fed: Federated Learning with Local Differential Privacy
- Title(参考訳): LDP-Fed: ローカル差分プライバシーによるフェデレーション学習
- Authors: Stacey Truex, Ling Liu, Ka-Ho Chow, Mehmet Emre Gursoy, Wenqi Wei
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)を用いた正式なプライバシ保証を備えた新しいフェデレーション学習システム LDP-Fed を提案する。
既存のLPPプロトコルは、主に単一の数値またはカテゴリ値の収集におけるデータのプライバシを確保するために開発されている。
連合学習モデルでは、各参加者からパラメータの更新を反復的に収集する。
- 参考スコア(独自算出の注目度): 14.723892247530234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents LDP-Fed, a novel federated learning system with a formal
privacy guarantee using local differential privacy (LDP). Existing LDP
protocols are developed primarily to ensure data privacy in the collection of
single numerical or categorical values, such as click count in Web access logs.
However, in federated learning model parameter updates are collected
iteratively from each participant and consist of high dimensional, continuous
values with high precision (10s of digits after the decimal point), making
existing LDP protocols inapplicable. To address this challenge in LDP-Fed, we
design and develop two novel approaches. First, LDP-Fed's LDP Module provides a
formal differential privacy guarantee for the repeated collection of model
training parameters in the federated training of large-scale neural networks
over multiple individual participants' private datasets. Second, LDP-Fed
implements a suite of selection and filtering techniques for perturbing and
sharing select parameter updates with the parameter server. We validate our
system deployed with a condensed LDP protocol in training deep neural networks
on public data. We compare this version of LDP-Fed, coined CLDP-Fed, with other
state-of-the-art approaches with respect to model accuracy, privacy
preservation, and system capabilities.
- Abstract(参考訳): 本稿では,ローカルディファレンシャルプライバシ(LDP)を用いた形式的プライバシ保証を備えた,新しいフェデレーション学習システム LDP-Fed を提案する。
既存のLCPプロトコルは、Webアクセスログのクリック数など、単一の数値またはカテゴリ値の収集におけるデータのプライバシを確保するために開発されている。
しかし、フェデレーション学習モデルでは、パラメータの更新は各参加者から反復的に収集され、高精度な高次元連続値(十進点の10桁)からなり、既存のLPPプロトコルを適用できない。
LDP-Fedにおけるこの問題に対処するために,我々は2つの新しいアプローチを設計・開発する。
まず、ldp-fedのldpモジュールは、複数の参加者のプライベートデータセットにまたがる大規模ニューラルネットワークの連合トレーニングにおいて、モデルトレーニングパラメータの繰り返し収集に対して、公式な差分プライバシー保証を提供する。
第二に、ldp-fedは選択パラメータ更新をパラメータサーバで摂動および共有するための一連の選択およびフィルタリング技術を実装している。
我々は,公開データ上でのディープニューラルネットワークのトレーニングにおいて,LDPプロトコルを凝縮してデプロイしたシステムを検証する。
CLDP-Fedと呼ばれるこのバージョンのLCP-Fedと、モデル精度、プライバシー保護、システム機能に関する最先端のアプローチを比較した。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Efficient Verifiable Differential Privacy with Input Authenticity in the Local and Shuffle Model [3.208888890455612]
ローカルディファレンシャルプライバシ(LDP)は、中央サーバ(アグリゲータ)を信頼することなく、アグリゲーション統計の効率的なリリースを可能にする。
LDPは、入力と出力の両方を操作できる悪意のあるクライアントに対して脆弱であることが示されている。
悪意あるクライアントが LDP スキームを妥協するのを防ぐ方法を示す。
論文 参考訳(メタデータ) (2024-06-27T07:12:28Z) - Differentially-Private Multi-Tier Federated Learning [14.725823723623213]
多階層差分プライバシーを用いた多階層フェデレーション学習(M2FDP)を提案する。
M2FDPは、階層型ネットワークにおけるプライバシーと性能を協調的に最適化するためのDP強化FL手法である。
論文 参考訳(メタデータ) (2024-01-21T20:46:21Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Locally Differentially Private Bayesian Inference [23.882144188177275]
ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-27T13:36:43Z) - Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy [18.98782927283319]
ローカルディファレンシャルプライバシ(LDP)は、プライバシを保護するための厳格なアプローチを提供する。
既存のLPP機構は低次元データに適用されている。
高次元において、プライバシを誘発するノイズは、データの有用性を大きく損なう。
論文 参考訳(メタデータ) (2020-10-23T15:01:19Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。