論文の概要: Sequentially Auditing Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.07055v1
- Date: Mon, 08 Sep 2025 17:57:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.061699
- Title: Sequentially Auditing Differential Privacy
- Title(参考訳): 差別化プライバシを逐次調査する
- Authors: Tomás González, Mateo Dulce-Rubio, Aaditya Ramdas, Mónica Ribero,
- Abstract要約: ブラックボックス機構の差分プライバシー保証を監査するための実用的なシーケンシャルテストを提案する。
テストは、Type Iエラーを制御しながら、任意の値推論を提供するメカニズムの出力のストリームを処理する。
特に、単一のトレーニング実行中にDP-SGDのプライバシ違反を識別する。
- 参考スコア(独自算出の注目度): 34.52272156092439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a practical sequential test for auditing differential privacy guarantees of black-box mechanisms. The test processes streams of mechanisms' outputs providing anytime-valid inference while controlling Type I error, overcoming the fixed sample size limitation of previous batch auditing methods. Experiments show this test detects violations with sample sizes that are orders of magnitude smaller than existing methods, reducing this number from 50K to a few hundred examples, across diverse realistic mechanisms. Notably, it identifies DP-SGD privacy violations in \textit{under} one training run, unlike prior methods needing full model training.
- Abstract(参考訳): ブラックボックス機構の差分プライバシー保証を監査するための実用的なシーケンシャルテストを提案する。
テストは、以前のバッチ監査メソッドの固定されたサンプルサイズ制限を克服しながら、タイプIエラーを制御しながら、任意の値推論を提供するメカニズムの出力のストリームを処理する。
実験では、既存の方法よりも桁違いに小さいサンプルサイズによる違反を検出し、この数を50Kから数百の例に減らし、多様な現実的なメカニズムで検出した。
特に、完全なモデルトレーニングを必要とする以前の方法とは異なり、 \textit{under} のトレーニング実行中に DP-SGD のプライバシ違反を特定する。
関連論文リスト
- Auditing Differential Privacy Guarantees Using Density Estimation [3.830092569453011]
DP機構の差分プライバシー保証を正確に評価するための新しい手法を提案する。
特に、我々のソリューションは、機械学習(ML)モデルのDP保証の監査に適用できる。
論文 参考訳(メタデータ) (2024-06-07T10:52:15Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Sequential Kernelized Independence Testing [77.237958592189]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Boost Test-Time Performance with Closed-Loop Inference [85.43516360332646]
そこで本研究では,モデル性能を高めるために,ループ方式でハードクラス化試験サンプルを予測することを提案する。
まず、追加の推論ループを必要とするハードクラス化テストサンプルを識別するためにフィルタリング基準を考案する。
各ハードサンプルに対して、モデルのキャリブレーションを行うために、元の上位$K$予測に基づいて補助学習タスクを構築する。
論文 参考訳(メタデータ) (2022-03-21T10:20:21Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。