論文の概要: Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios
- arxiv url: http://arxiv.org/abs/2412.01756v2
- Date: Mon, 24 Feb 2025 07:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:48:36.070959
- Title: Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios
- Title(参考訳): 最終モデル専用シナリオにおけるタイタープライバシ監査のための逆サンプルベースアプローチ
- Authors: Sangyeon Yoon, Wonje Jeung, Albert No,
- Abstract要約: 追加の仮定を伴わずにより厳密な経験的下限を実現する新しい監査手法を提案する。
我々のアプローチは従来のカナリアベースの逆数を超え、最終的なモデルのみのシナリオで有効である。
- 参考スコア(独自算出の注目度): 5.116399056871577
- License:
- Abstract: Auditing Differentially Private Stochastic Gradient Descent (DP-SGD) in the final model setting is challenging and often results in empirical lower bounds that are significantly looser than theoretical privacy guarantees. We introduce a novel auditing method that achieves tighter empirical lower bounds without additional assumptions by crafting worst-case adversarial samples through loss-based input-space auditing. Our approach surpasses traditional canary-based heuristics and is effective in final model-only scenarios. Specifically, with a theoretical privacy budget of $\varepsilon = 10.0$, our method achieves empirical lower bounds of $4.914$, compared to the baseline of $4.385$ for MNIST. Our work offers a practical framework for reliable and accurate privacy auditing in differentially private machine learning.
- Abstract(参考訳): DP-SGDを最終モデル設定で評価することは困難であり、しばしば理論的プライバシー保証よりもかなり緩い経験的な下限をもたらす。
そこで我々は,損失に基づく入力空間監査により,最悪ケースの対数サンプルを作成することにより,追加の仮定を伴わずに,より厳密な経験的下限を達成できる新しい監査手法を提案する。
我々のアプローチは従来のカナリアベースのヒューリスティックスを超え、最終的なモデルのみのシナリオで有効です。
具体的には、理論上のプライバシー予算が$\varepsilon = 10.0$であるのに対し、我々の方法はMNISTの4.385$に対して4.914$である。
我々の研究は、微分プライベート機械学習における信頼性と正確なプライバシー監査のための実践的なフレームワークを提供する。
関連論文リスト
- General-Purpose $f$-DP Estimation and Auditing in a Black-Box Setting [7.052531099272798]
統計的に$f$-Differential Privacy(f$-DP)を評価する新しい手法を提案する。
異なるプライベートメカニズムをデプロイする際の課題は、DPが検証しにくいことである。
我々は,このプライバシー概念に対する既存のアプローチとは異なり,研究対象アルゴリズムの事前知識を必要としない,$f$-DPのための新しいブラックボックス手法を導入する。
論文 参考訳(メタデータ) (2025-02-10T21:58:17Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Nearly Tight Black-Box Auditing of Differentially Private Machine Learning [10.305660258428993]
本稿では,ブラックボックス脅威モデルにおけるDP-SGDアルゴリズムの監査手順を提案する。
DP-SGDのプライバシ分析は、初期モデルパラメータの選択に非依存であるからである。
論文 参考訳(メタデータ) (2024-05-23T02:24:52Z) - On the Complexity of Differentially Private Best-Arm Identification with
Fixed Confidence [16.295693624977563]
我々は、$epsilon$-global Differential Privacyの下で、信頼度を固定したベストアーム識別の問題について検討する。
われわれの限界は、プライバシー予算によって2つのプライバシー体制が存在することを示唆している。
我々はトップ2アルゴリズムの$epsilon$-global DP変種であるAdaP-TTを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:07:25Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。