論文の概要: Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries
- arxiv url: http://arxiv.org/abs/2507.08158v1
- Date: Thu, 10 Jul 2025 20:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.168443
- Title: Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries
- Title(参考訳): 最悪の場合を超えて: 差別的なプライバシー保証を現実主義の敵に拡張
- Authors: Marika Swanberg, Meenatchi Sundaram Muthu Selva Annamalai, Jamie Hayes, Borja Balle, Adam Smith,
- Abstract要約: 差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 17.780319275883127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential Privacy (DP) is a family of definitions that bound the worst-case privacy leakage of a mechanism. One important feature of the worst-case DP guarantee is it naturally implies protections against adversaries with less prior information, more sophisticated attack goals, and complex measures of a successful attack. However, the analytical tradeoffs between the adversarial model and the privacy protections conferred by DP are not well understood thus far. To that end, this work sheds light on what the worst-case guarantee of DP implies about the success of attackers that are more representative of real-world privacy risks. In this paper, we present a single flexible framework that generalizes and extends the patchwork of bounds on DP mechanisms found in prior work. Our framework allows us to compute high-probability guarantees for DP mechanisms on a large family of natural attack settings that previous bounds do not capture. One class of such settings is the approximate reconstruction of multiple individuals' data, such as inferring nearly entire columns of a tabular data set from noisy marginals and extracting sensitive information from DP-trained language models. We conduct two empirical case studies to illustrate the versatility of our bounds and compare them to the success of state-of-the-art attacks. Specifically, we study attacks that extract non-uniform PII from a DP-trained language model, as well as multi-column reconstruction attacks where the adversary has access to some columns in the clear and attempts to reconstruct the remaining columns for each person's record. We find that the absolute privacy risk of attacking non-uniform data is highly dependent on the adversary's prior probability of success. Our high probability bounds give us a nuanced understanding of the privacy leakage of DP mechanisms in a variety of previously understudied attack settings.
- Abstract(参考訳): 差別化プライバシ(DP)は、メカニズムの最悪のプライバシー漏洩を拘束する定義のファミリーである。
最悪の場合のDP保証の1つの重要な特徴は、より少ない事前情報、より高度な攻撃目標、そして攻撃を成功させる複雑な手段を持つ敵に対する保護を自然に意味していることである。
しかし, 敵モデルとDPが付与するプライバシ保護の相違は, 今のところよく理解されていない。
そのために、この研究は、DPの最悪の保証が、現実世界のプライバシーリスクを代表している攻撃者の成功にどんな意味があるのかを浮き彫りにしている。
本稿では,従来のDP機構における境界のパッチワークを一般化し,拡張する,単一のフレキシブルなフレームワークを提案する。
我々のフレームワークは,従来の境界が捕捉できないような自然攻撃の大規模なファミリーにおいて,DP機構の高確率保証を計算することができる。
そのような設定の1つのクラスは、ノイズの多い辺境から表されたデータセットのほぼ全列を推測したり、DP訓練された言語モデルから機密情報を抽出するなど、複数の個人のデータを近似的に再構成するものである。
2つの実験ケーススタディにより、我々の限界の汎用性を説明し、それらを最先端の攻撃の成功と比較する。
具体的には、DP学習言語モデルから一様でないPIIを抽出する攻撃や、相手がクリアな列にアクセス可能なマルチカラム再構築攻撃について検討し、各人の記録の残りの列を再構築しようとする。
非均一なデータを攻撃する絶対的プライバシーリスクは、敵の事前の成功確率に大きく依存している。
我々の高い確率境界は、これまで検討されてきた様々な攻撃設定において、DPメカニズムのプライバシー漏洩に関する微妙な理解を与えてくれる。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Understanding the Impact of Data Domain Extraction on Synthetic Data Privacy [10.893644207618825]
プライバシ攻撃、特にメンバーシップ推論攻撃(MIA)は、合成データの生成モデルのプライバシを評価するために広く利用されている。
これらの攻撃は、データドメインの境界における位置のために特に脆弱な、アウトリーチを悪用することが多い。
本稿では,生成モデルにおけるデータ領域抽出の役割とプライバシ攻撃への影響について検討する。
論文 参考訳(メタデータ) (2025-04-11T04:35:24Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - ATTAXONOMY: Unpacking Differential Privacy Guarantees Against Practical Adversaries [11.550822252074733]
我々は攻撃の詳細な分類を提供し、攻撃のさまざまな側面を示し、多くの現実世界の設定が検討されていることを強調している。
イスラエル厚生労働省が最近発表した、差分プライバシーを用いた出生データセットの実際のケーススタディを分析して、分類学を運用しています。
論文 参考訳(メタデータ) (2024-05-02T20:23:23Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Closed-Form Bounds for DP-SGD against Record-level Inference [18.85865832127335]
我々はDP-SGDアルゴリズムに焦点をあて、単純な閉形式境界を導出する。
我々は、最先端技術にマッチする会員推定のバウンダリを得る。
属性推論に対する新しいデータ依存型バウンダリを提案する。
論文 参考訳(メタデータ) (2024-02-22T09:26:16Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。