論文の概要: R\'enyi Pufferfish Privacy: General Additive Noise Mechanisms and
Privacy Amplification by Iteration
- arxiv url: http://arxiv.org/abs/2312.13985v1
- Date: Thu, 21 Dec 2023 16:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 14:04:56.987768
- Title: R\'enyi Pufferfish Privacy: General Additive Noise Mechanisms and
Privacy Amplification by Iteration
- Title(参考訳): R'enyi Pufferfishのプライバシー: 一般的な付加的なノイズメカニズムと反復によるプライバシー増幅
- Authors: Cl\'ement Pierquin and Aur\'elien Bellet and Marc Tommasi and Matthieu
Boussard
- Abstract要約: Pufferfishのプライバシは、任意の秘密とデータに関する敵の事前知識をモデル化できる、フレキシブルな微分プライバシの一般化である。
我々は,R'enyi 発散に基づく Pufferfish の変種を紹介し,それが Pufferfish フレームワークの適用性の拡張を可能にすることを示す。
- 参考スコア(独自算出の注目度): 6.892283691308384
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Pufferfish privacy is a flexible generalization of differential privacy that
allows to model arbitrary secrets and adversary's prior knowledge about the
data. Unfortunately, designing general and tractable Pufferfish mechanisms that
do not compromise utility is challenging. Furthermore, this framework does not
provide the composition guarantees needed for a direct use in iterative machine
learning algorithms. To mitigate these issues, we introduce a R\'enyi
divergence-based variant of Pufferfish and show that it allows us to extend the
applicability of the Pufferfish framework. We first generalize the Wasserstein
mechanism to cover a wide range of noise distributions and introduce several
ways to improve its utility. We also derive stronger guarantees against
out-of-distribution adversaries. Finally, as an alternative to composition, we
prove privacy amplification results for contractive noisy iterations and
showcase the first use of Pufferfish in private convex optimization. A common
ingredient underlying our results is the use and extension of shift reduction
lemmas.
- Abstract(参考訳): pufferfish privacyは、データに関する任意の秘密や敵の事前知識をモデル化できる差分プライバシの柔軟な一般化である。
残念なことに、実用性を損なわない汎用かつトラクタブルなPufferfishメカニズムの設計は難しい。
さらに、このフレームワークは反復機械学習アルゴリズムの直接使用に必要な構成保証を提供していない。
これらの問題を緩和するために、R\'enyi 発散に基づく Pufferfish の変種を導入し、それが Pufferfish フレームワークの適用性の拡張を可能にすることを示す。
まず,wasserstein 機構を一般化し,幅広い雑音分布をカバーするとともに,その実用性を改善する方法をいくつか紹介する。
我々はまた、分配外敵に対してより強い保証を得る。
そして最後に,コンポジションの代替として,プライバシの増幅効果を検証し,プライベート凸最適化におけるpufferfishの初使用例を示す。
我々の結果の基盤となる共通の要素はシフト削減補題の使用と拡張です。
関連論文リスト
- Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Group Privacy Amplification and Unified Amplification by Subsampling for
R\'enyi Differential Privacy [15.564396802293901]
グループプライバシとサブサンプリングによる増幅の組み合わせに焦点を当てる。
我々はR'enyi-DPの保証をサブサンプリングすることで増幅を導出するための統一的なフレームワークを開発する。
我々は、R'enyi-DPの既存の増幅結果の改善と一般化を可能にするだけでなく、既存の原則よりも強力なグループプライバシの増幅を保証することを確実に導き出す。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Shifted Interpolation for Differential Privacy [6.949853145487147]
雑音勾配勾配とその変種は、微分プライベート機械学習の主要なアルゴリズムである。
本稿では、$f$差分プライバシーの統一フレームワークにおける「反復によるプライバシー増幅」現象を確立する。
これは、強力な凸最適化の基礎的な設定において、最初の正確なプライバシー分析につながる。
論文 参考訳(メタデータ) (2024-03-01T04:50:04Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。