論文の概要: A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem
- arxiv url: http://arxiv.org/abs/2409.09558v2
- Date: Tue, 29 Oct 2024 00:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 20:46:36.510316
- Title: A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem
- Title(参考訳): 差分プライバシーの統計的視点:仮説テスト、表現、ブラックウェルの理論
- Authors: Weijie J. Su,
- Abstract要約: 我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
- 参考スコア(独自算出の注目度): 30.365274034429508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy is widely considered the formal privacy for privacy-preserving data analysis due to its robust and rigorous guarantees, with increasingly broad adoption in public services, academia, and industry. Despite originating in the cryptographic context, in this review paper we argue that, fundamentally, differential privacy can be considered a \textit{pure} statistical concept. By leveraging David Blackwell's informativeness theorem, our focus is to demonstrate based on prior work that all definitions of differential privacy can be formally motivated from a hypothesis testing perspective, thereby showing that hypothesis testing is not merely convenient but also the right language for reasoning about differential privacy. This insight leads to the definition of $f$-differential privacy, which extends other differential privacy definitions through a representation theorem. We review techniques that render $f$-differential privacy a unified framework for analyzing privacy bounds in data analysis and machine learning. Applications of this differential privacy definition to private deep learning, private convex optimization, shuffled mechanisms, and U.S.\ Census data are discussed to highlight the benefits of analyzing privacy bounds under this framework compared to existing alternatives.
- Abstract(参考訳): 差別化プライバシは、堅牢で厳格な保証のため、プライバシ保護データ分析の正式なプライバシとして広く考えられており、公共サービスやアカデミック、業界で広く採用されている。
暗号の文脈に起源があるにもかかわらず、このレビュー論文では、微分プライバシーは基本的には「textit{pure} 統計概念」とみなすことができると論じている。
David Blackwell氏の情報性定理を活用することで、我々の焦点は、事前の作業に基づいて、差分プライバシーのすべての定義が仮説テストの観点から正式に動機付けられることを実証することであり、したがって仮説テストは単に便利なだけでなく、差分プライバシーを推論するための適切な言語であることを示すことである。
この洞察は、表現定理を通じて他の微分プライバシー定義を拡張する$f$-differential privacyの定義につながる。
我々は、データ分析と機械学習におけるプライバシー境界を解析するための統合フレームワークとして、$f$差分プライバシを描画する手法をレビューする。
この差分プライバシー定義のプライベートディープラーニング、プライベート凸最適化、シャッフル機構、および米国国勢調査データへの適用について議論し、既存の代替手段と比較して、このフレームワークの下でのプライバシー境界を分析する利点を強調した。
関連論文リスト
- Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - Privacy Against Hypothesis-Testing Adversaries for Quantum Computing [14.095523601311374]
本稿では,量子仮説テストに基づく量子コンピューティングにおけるデータプライバシの新たな定義を提案する。
本論文で定義した仮説検証敵に対するプライバシと量子差分プライバシーの関係について検討する。
論文 参考訳(メタデータ) (2023-02-24T02:10:27Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。