論文の概要: The Skellam Mechanism for Differentially Private Federated Learning
- arxiv url: http://arxiv.org/abs/2110.04995v1
- Date: Mon, 11 Oct 2021 04:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 17:13:42.995420
- Title: The Skellam Mechanism for Differentially Private Federated Learning
- Title(参考訳): 個人別フェデレーション学習のためのスケラム機構
- Authors: Naman Agarwal and Peter Kairouz and Ziyu Liu
- Abstract要約: 2つの独立なポアソン確率変数の差に基づく離散微分プライバシー機構である多次元スケラム機構を導入する。
本研究では,2つのシフトしたSkellam分布間のR'enyi分散を,数値評価により解析し,シャープな境界を与える。
集中型プライバシアプリケーションと分散型プライバシアプリケーションの両方で有用であるが、フェデレーション学習の文脈でどのように適用できるかを検討する。
- 参考スコア(独自算出の注目度): 28.623090760737075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the multi-dimensional Skellam mechanism, a discrete differential
privacy mechanism based on the difference of two independent Poisson random
variables. To quantify its privacy guarantees, we analyze the privacy loss
distribution via a numerical evaluation and provide a sharp bound on the
R\'enyi divergence between two shifted Skellam distributions. While useful in
both centralized and distributed privacy applications, we investigate how it
can be applied in the context of federated learning with secure aggregation
under communication constraints. Our theoretical findings and extensive
experimental evaluations demonstrate that the Skellam mechanism provides the
same privacy-accuracy trade-offs as the continuous Gaussian mechanism, even
when the precision is low. More importantly, Skellam is closed under summation
and sampling from it only requires sampling from a Poisson distribution -- an
efficient routine that ships with all machine learning and data analysis
software packages. These features, along with its discrete nature and
competitive privacy-accuracy trade-offs, make it an attractive alternative to
the newly introduced discrete Gaussian mechanism.
- Abstract(参考訳): 2つの独立なポアソン確率変数の差に基づく離散微分プライバシー機構である多次元スケラム機構を導入する。
プライバシ保証の定量化のために,数値評価によりプライバシ損失分布を解析し,シフトした2つのスケラム分布間のR'enyi分散を鋭く制限する。
集中型および分散型のプライバシアプリケーションでは有用だが,コミュニケーション制約下でのセキュアアグリゲーションによる連合学習の文脈において,どのように適用できるかを検討する。
理論的な知見と広範な実験的評価により,スキャラム機構は,精度が低い場合でも,連続ガウス機構と同じプライバシ・正確なトレードオフを提供することが示された。
さらに重要なのは、Skellamを要約してクローズし、そこからサンプリングするためには、Poissonディストリビューションからのみサンプリングする必要があることだ。
これらの特徴は、その独特な性質と競合するプライバシーと精度のトレードオフと共に、新しく導入された個別のガウス機構に代わる魅力的な代替品となる。
関連論文リスト
- Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - Summary Statistic Privacy in Data Sharing [23.50797952699759]
本研究では,データ配信の要約統計を明らかにすることなく,データ保持者が受信者とデータを共有したい状況について検討する。
このようなメカニズムのプライバシーリスクを定量化するための指標である統計プライバシーの要約を提案する。
提案した量子化メカニズムは、代替プライバシメカニズムよりも優れたプライバシー歪曲トレードオフを実現する。
論文 参考訳(メタデータ) (2023-03-03T15:29:19Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - The Distributed Discrete Gaussian Mechanism for Federated Learning with
Secure Aggregation [28.75998313625891]
本稿では,データを適切に識別し,セキュアアグリゲーションを行う前に離散ガウス雑音を付加する総合的なエンドツーエンドシステムを提案する。
私達の理論的保証はコミュニケーション、プライバシーおよび正確さ間の複雑な緊張を強調します。
論文 参考訳(メタデータ) (2021-02-12T08:20:18Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Near Instance-Optimality in Differential Privacy [38.8726789833284]
古典統計理論に着想を得た差分プライバシーにおけるインスタンス最適性の概念を考案する。
また、大規模な推定値に対してインスタンス最適(もしくはほぼインスタンス最適)な逆感度機構も開発する。
論文 参考訳(メタデータ) (2020-05-16T04:53:48Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。