論文の概要: Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios
- arxiv url: http://arxiv.org/abs/2412.01756v1
- Date: Mon, 02 Dec 2024 17:52:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:12.824777
- Title: Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios
- Title(参考訳): 最終モデル専用シナリオにおけるタイタープライバシ監査のための逆サンプルベースアプローチ
- Authors: Sangyeon Yoon, Wonje Jeung, Albert No,
- Abstract要約: 追加の仮定を伴わずにより厳密な経験的下限を実現する新しい監査手法を提案する。
提案手法は従来のカナリア方式の逆数を超え,ホワイトボックスとブラックボックスの両方のシナリオで有効である。
- 参考スコア(独自算出の注目度): 5.116399056871577
- License:
- Abstract: Auditing Differentially Private Stochastic Gradient Descent (DP-SGD) in the final model setting is challenging and often results in empirical lower bounds that are significantly looser than theoretical privacy guarantees. We introduce a novel auditing method that achieves tighter empirical lower bounds without additional assumptions by crafting worst-case adversarial samples through loss-based input-space auditing. Our approach surpasses traditional canary-based heuristics and is effective in both white-box and black-box scenarios. Specifically, with a theoretical privacy budget of $\varepsilon = 10.0$, our method achieves empirical lower bounds of $6.68$ in white-box settings and $4.51$ in black-box settings, compared to the baseline of $4.11$ for MNIST. Moreover, we demonstrate that significant privacy auditing results can be achieved using in-distribution (ID) samples as canaries, obtaining an empirical lower bound of $4.33$ where traditional methods produce near-zero leakage detection. Our work offers a practical framework for reliable and accurate privacy auditing in differentially private machine learning.
- Abstract(参考訳): DP-SGDを最終モデル設定で評価することは困難であり、しばしば理論的プライバシー保証よりもかなり緩い経験的な下限をもたらす。
本稿では,損失に基づく入力空間監査を通じて,最悪ケースの対数サンプルを作成することで,仮定を伴わずに,より厳密な経験的下界を実現する新しい監査手法を提案する。
提案手法は従来のカナリア・ベースのヒューリスティックスを超え,ホワイトボックスとブラックボックスの両方のシナリオで有効である。
具体的には、理論上のプライバシー予算が$\varepsilon = 10.0$であるのに対し、我々の方法は、MNISTのベースラインが$4.11$であるのに対して、ホワイトボックス設定で$6.68$、ブラックボックス設定で$4.51$という経験的な低いバウンダリを達成している。
さらに,IDサンプルをカナリアとして利用することで,従来の手法がほぼゼロに近い漏洩検出を行う場合の,実証的な低い4.33ドルのプライバシー監査結果が得られることを示した。
我々の研究は、微分プライベート機械学習における信頼性と正確なプライバシー監査のための実践的なフレームワークを提供する。
関連論文リスト
- Minimax Optimal Two-Sample Testing under Local Differential Privacy [3.3317825075368908]
ローカルディファレンシャルプライバシ(LDP)の下でのプライベート2サンプルテストにおけるプライバシと統計ユーティリティのトレードオフについて検討する。
本稿では,Laplace,離散Laplace,GoogleのRAPPORなど,実用的なプライバシメカニズムを用いたプライベートな置換テストを紹介する。
我々は,ビンニングによる連続データの研究を行い,その一様分離率をH"olderとBesovの滑らか度クラスよりもLDPで検討した。
論文 参考訳(メタデータ) (2024-11-13T22:44:25Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Nearly Tight Black-Box Auditing of Differentially Private Machine Learning [10.305660258428993]
本稿では,ブラックボックス脅威モデルにおけるDP-SGDアルゴリズムの監査手順を提案する。
DP-SGDのプライバシ分析は、初期モデルパラメータの選択に非依存であるからである。
論文 参考訳(メタデータ) (2024-05-23T02:24:52Z) - On the Complexity of Differentially Private Best-Arm Identification with
Fixed Confidence [16.295693624977563]
我々は、$epsilon$-global Differential Privacyの下で、信頼度を固定したベストアーム識別の問題について検討する。
われわれの限界は、プライバシー予算によって2つのプライバシー体制が存在することを示唆している。
我々はトップ2アルゴリズムの$epsilon$-global DP変種であるAdaP-TTを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:07:25Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Tight Differential Privacy for Discrete-Valued Mechanisms and for the
Subsampled Gaussian Mechanism Using FFT [6.929834518749884]
離散的な1次元の出力を持つアルゴリズムに対して,厳密な$(varepsilon,delta)$-privacy損失を評価するための数値会計法を提案する。
本稿では,従来の文献と同等のプライバシーで,ノイズ分散を最大75%低減できることを示す。
論文 参考訳(メタデータ) (2020-06-12T12:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。