論文の概要: Sequential Auditing for f-Differential Privacy
- arxiv url: http://arxiv.org/abs/2602.06518v1
- Date: Fri, 06 Feb 2026 09:22:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.308359
- Title: Sequential Auditing for f-Differential Privacy
- Title(参考訳): f-Differential Privacyのためのシークエンシャル監査
- Authors: Tim Kutta, Martin Dunsche, Yu Wei, Vassilis Zikas,
- Abstract要約: 出力サンプルに基づくアルゴリズムの差分プライバシー(DP)を評価するための新しい監査者を提案する。
私たちは、非常に表現力豊かなプライバシー概念である$f$-DPに焦点を移します。
- 参考スコア(独自算出の注目度): 5.7992233755396505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present new auditors to assess Differential Privacy (DP) of an algorithm based on output samples. Such empirical auditors are common to check for algorithmic correctness and implementation bugs. Most existing auditors are batch-based or targeted toward the traditional notion of $(\varepsilon,δ)$-DP; typically both. In this work, we shift the focus to the highly expressive privacy concept of $f$-DP, in which the entire privacy behavior is captured by a single tradeoff curve. Our auditors detect violations across the full privacy spectrum with statistical significance guarantees, which are supported by theory and simulations. Most importantly, and in contrast to prior work, our auditors do not require a user-specified sample size as an input. Rather, they adaptively determine a near-optimal number of samples needed to reach a decision, thereby avoiding the excessively large sample sizes common in many auditing studies. This reduction in sampling cost becomes especially beneficial for expensive training procedures such as DP-SGD. Our method supports both whitebox and blackbox settings and can also be executed in single-run frameworks.
- Abstract(参考訳): 出力サンプルに基づくアルゴリズムの差分プライバシー(DP)を評価するための新しい監査者を提案する。
このような経験的監査はアルゴリズムの正確性や実装上のバグをチェックするのに一般的である。
既存の監査者はバッチベースか、従来の$(\varepsilon,δ)$-DPという概念をターゲットとしている。
本研究では,プライバシの挙動全体を単一トレードオフ曲線で捉えた,表現力に富んだ$f$-DPという,非常に表現力のあるプライバシ概念に焦点を移す。
我々の監査員は、理論とシミュレーションによって支持される統計的に重要な保証で、全プライバシースペクトルの違反を検出する。
最も重要なことは、以前の作業とは対照的に、監査役は入力としてユーザ指定のサンプルサイズを必要としないことです。
むしろ、決定に達するのに必要なサンプルのほぼ最適個数を適応的に決定し、多くの監査研究で共通する過度に大きなサンプルサイズを避ける。
このサンプリングコストの削減は、DP-SGDのような高価なトレーニング手順にとって特に有益である。
我々のメソッドは、ホワイトボックスとブラックボックスの設定の両方をサポートし、単一実行フレームワークでも実行できる。
関連論文リスト
- Tight Privacy Audit in One Run [14.266167758603986]
本手法は,様々な異なるプロトコルに対して,厳密な監査結果が得られることを示す。
また,プライバシ監査のパラメータ設定に関するこれまでの研究と対照的な結論を与える実験も実施している。
論文 参考訳(メタデータ) (2025-09-10T15:55:03Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios [5.116399056871577]
追加の仮定を伴わずにより厳密な経験的下限を実現する新しい監査手法を提案する。
我々のアプローチは従来のカナリアベースの逆数を超え、最終的なモデルのみのシナリオで有効である。
論文 参考訳(メタデータ) (2024-12-02T17:52:16Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - Nearly Tight Black-Box Auditing of Differentially Private Machine Learning [10.305660258428993]
本稿では,ブラックボックス脅威モデルにおけるDP-SGDアルゴリズムの監査手順を提案する。
DP-SGDのプライバシ分析は、初期モデルパラメータの選択に非依存であるからである。
論文 参考訳(メタデータ) (2024-05-23T02:24:52Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Sequential Kernelized Independence Testing [77.237958592189]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。