論文の概要: Gaussian DP for Reporting Differential Privacy Guarantees in Machine Learning
- arxiv url: http://arxiv.org/abs/2503.10945v2
- Date: Wed, 01 Oct 2025 19:57:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:19.770953
- Title: Gaussian DP for Reporting Differential Privacy Guarantees in Machine Learning
- Title(参考訳): ガウシアンDPが機械学習における差別的プライバシ保証を報告
- Authors: Juan Felipe Gomez, Bogdan Kulynych, Georgios Kaissis, Flavio P. Calmon, Jamie Hayes, Borja Balle, Antti Honkela,
- Abstract要約: 機械学習(ML)アルゴリズムの差分プライバシーレベルを報告するための現在のプラクティスは、プライバシー保証の不完全で、潜在的に誤解を招く可能性がある。
我々は、非漸近的ガウス微分プライバシー(GDP)をMLにおけるDP保証を伝える主要な手段として使うことは、これらの潜在的な欠点を回避していると論じる。
本稿では,数値会計士を用いてGDPに非漸近的境界を与える方法を示し,GDPがDP-SGDおよび関連するアルゴリズムのプライバシープロファイル全体を,基準値によって定量化されているように,ほとんど誤差なくキャプチャできることを示す。
- 参考スコア(独自算出の注目度): 27.52540933835594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current practices for reporting the level of differential privacy (DP) protection for machine learning (ML) algorithms such as DP-SGD provide an incomplete and potentially misleading picture of the privacy guarantees. For instance, if only a single $(\varepsilon,\delta)$ is known about a mechanism, standard analyses show that there exist highly accurate inference attacks against training data records, when, in fact, such accurate attacks might not exist. In this position paper, we argue that using non-asymptotic Gaussian Differential Privacy (GDP) as the primary means of communicating DP guarantees in ML avoids these potential downsides. Using two recent developments in the DP literature: (i) open-source numerical accountants capable of computing the privacy profile and $f$-DP curves of DP-SGD to arbitrary accuracy, and (ii) a decision-theoretic metric over DP representations, we show how to provide non-asymptotic bounds on GDP using numerical accountants, and show that GDP can capture the entire privacy profile of DP-SGD and related algorithms with virtually no error, as quantified by the metric. To support our claims, we investigate the privacy profiles of state-of-the-art DP large-scale image classification, and the TopDown algorithm for the U.S. Decennial Census, observing that GDP fits their profiles remarkably well in all cases. We conclude with a discussion on the strengths and weaknesses of this approach, and discuss which other privacy mechanisms could benefit from GDP.
- Abstract(参考訳): DP-SGDのような機械学習(ML)アルゴリズムに対する差分プライバシー(DP)保護のレベルを報告するための現在のプラクティスは、プライバシー保証の不完全で誤解を招く可能性がある。
例えば、単一の$(\varepsilon,\delta)$のみがメカニズムについて知っている場合、標準的な分析は、そのような正確な攻撃が存在しない場合、トレーニングデータレコードに対して非常に正確な推論攻撃が存在することを示している。
本稿では,非漸近的ガウス微分プライバシー(GDP)をMLにおけるDP保証を伝達する主要な手段として用いることは,これらの潜在的な欠点を回避することを論じる。
DP文学における最近の2つの展開
一 DP-SGDのプライバシープロファイル及び$f$-DP曲線を任意の精度で計算できるオープンソースの数値会計士
2) 数値会計士を用いてGDPに非漸近的境界を与える方法を示し, GDPがDP-SGDと関連するアルゴリズムのプライバシープロファイル全体を, ほぼ誤差なく捉えられることを示す。
我々の主張を支持するために、我々は、最先端のDP大規模画像分類のプライバシープロファイルと、米国の十年国勢調査のTopDownアルゴリズムを調査し、GDPがすべてのケースにおいて著しく適合していることを観察した。
我々は、このアプローチの強みと弱みについて議論し、他のプライバシメカニズムがGDPからどのような恩恵を受けるかについて議論した。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Wasserstein Differential Privacy [4.112909937203119]
本稿では、プライバシー漏洩のリスクを測定するための代替DPフレームワークであるWDP(Wasserstein差分プライバシー)を提案する。
WDPには13の優れた特性があり、WDPの性能向上を理論的に支援できることを示す。
我々は、WDPを勾配降下シナリオに適用できる、Wasserstein accountantと呼ばれる一般的なプライバシ会計手法を導出する。
論文 参考訳(メタデータ) (2024-01-23T02:08:20Z) - Conciliating Privacy and Utility in Data Releases via Individual Differential Privacy and Microaggregation [4.287502453001108]
$epsilon$-Differential Privacy(DP)は、強力なプライバシ保証を提供するよく知られたプライバシモデルである。
被験者にDPと同じ保護を提供しながらデータ歪みを低減させるiDP ($epsilon$-individual differential privacy) を提案する。
本稿では,2次データ解析の精度を著しく低下させることのない保護データを提供しながら,我々のアプローチが強力なプライバシ(小額のepsilon$)を提供することを示す実験について報告する。
論文 参考訳(メタデータ) (2023-12-21T10:23:18Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。