論文の概要: The Skellam Mechanism for Differentially Private Federated Learning
- arxiv url: http://arxiv.org/abs/2110.04995v1
- Date: Mon, 11 Oct 2021 04:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 17:13:42.995420
- Title: The Skellam Mechanism for Differentially Private Federated Learning
- Title(参考訳): 個人別フェデレーション学習のためのスケラム機構
- Authors: Naman Agarwal and Peter Kairouz and Ziyu Liu
- Abstract要約: 2つの独立なポアソン確率変数の差に基づく離散微分プライバシー機構である多次元スケラム機構を導入する。
本研究では,2つのシフトしたSkellam分布間のR'enyi分散を,数値評価により解析し,シャープな境界を与える。
集中型プライバシアプリケーションと分散型プライバシアプリケーションの両方で有用であるが、フェデレーション学習の文脈でどのように適用できるかを検討する。
- 参考スコア(独自算出の注目度): 28.623090760737075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the multi-dimensional Skellam mechanism, a discrete differential
privacy mechanism based on the difference of two independent Poisson random
variables. To quantify its privacy guarantees, we analyze the privacy loss
distribution via a numerical evaluation and provide a sharp bound on the
R\'enyi divergence between two shifted Skellam distributions. While useful in
both centralized and distributed privacy applications, we investigate how it
can be applied in the context of federated learning with secure aggregation
under communication constraints. Our theoretical findings and extensive
experimental evaluations demonstrate that the Skellam mechanism provides the
same privacy-accuracy trade-offs as the continuous Gaussian mechanism, even
when the precision is low. More importantly, Skellam is closed under summation
and sampling from it only requires sampling from a Poisson distribution -- an
efficient routine that ships with all machine learning and data analysis
software packages. These features, along with its discrete nature and
competitive privacy-accuracy trade-offs, make it an attractive alternative to
the newly introduced discrete Gaussian mechanism.
- Abstract(参考訳): 2つの独立なポアソン確率変数の差に基づく離散微分プライバシー機構である多次元スケラム機構を導入する。
プライバシ保証の定量化のために,数値評価によりプライバシ損失分布を解析し,シフトした2つのスケラム分布間のR'enyi分散を鋭く制限する。
集中型および分散型のプライバシアプリケーションでは有用だが,コミュニケーション制約下でのセキュアアグリゲーションによる連合学習の文脈において,どのように適用できるかを検討する。
理論的な知見と広範な実験的評価により,スキャラム機構は,精度が低い場合でも,連続ガウス機構と同じプライバシ・正確なトレードオフを提供することが示された。
さらに重要なのは、Skellamを要約してクローズし、そこからサンプリングするためには、Poissonディストリビューションからのみサンプリングする必要があることだ。
これらの特徴は、その独特な性質と競合するプライバシーと精度のトレードオフと共に、新しく導入された個別のガウス機構に代わる魅力的な代替品となる。
関連論文リスト
- CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Universal Exact Compression of Differentially Private Mechanisms [47.57948804514929]
本稿では,任意の局所乱数化器の圧縮とシミュレートを目的とした,Poisson private representation (PPR) と呼ばれる新しい構成を提案する。
PPRは、データの結合分布と元のローカルランダム化器の出力を保存する。
実験結果から、PPRはコミュニケーション、正確性、中央および局所的な差分プライバシーの間のトレードオフを一貫して改善することが示された。
論文 参考訳(メタデータ) (2024-05-28T23:54:31Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differential Privacy with Higher Utility by Exploiting Coordinate-wise Disparity: Laplace Mechanism Can Beat Gaussian in High Dimensions [9.20186865054847]
我々は、i.n.d. Gaussian と Laplace のメカニズムを研究し、これらのメカニズムがプライバシーを保証する条件を得る。
i.n.d.ノイズは, (a) 座標降下, (b) 主成分分析, (c) グループクリッピングによる深層学習における性能を向上することを示す。
論文 参考訳(メタデータ) (2023-02-07T14:54:20Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Near Instance-Optimality in Differential Privacy [38.8726789833284]
古典統計理論に着想を得た差分プライバシーにおけるインスタンス最適性の概念を考案する。
また、大規模な推定値に対してインスタンス最適(もしくはほぼインスタンス最適)な逆感度機構も開発する。
論文 参考訳(メタデータ) (2020-05-16T04:53:48Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。