論文の概要: Tight Privacy Audit in One Run
- arxiv url: http://arxiv.org/abs/2509.08704v1
- Date: Wed, 10 Sep 2025 15:55:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.480727
- Title: Tight Privacy Audit in One Run
- Title(参考訳): タイトなプライバシ監査を1回で実施
- Authors: Zihang Xiang, Tianhao Wang, Hanshen Xiao, Yuan Tian, Di Wang,
- Abstract要約: 本手法は,様々な異なるプロトコルに対して,厳密な監査結果が得られることを示す。
また,プライバシ監査のパラメータ設定に関するこれまでの研究と対照的な結論を与える実験も実施している。
- 参考スコア(独自算出の注目度): 14.266167758603986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of privacy audit in one run and show that our method achieves tight audit results for various differentially private protocols. This includes obtaining tight results for auditing $(\varepsilon,\delta)$-DP algorithms where all previous work fails to achieve in any parameter setups. We first formulate a framework for privacy audit \textit{in one run} with refinement compared with previous work. Then, based on modeling privacy by the $f$-DP formulation, we study the implications of our framework to obtain a theoretically justified lower bound for privacy audit. In the experiment, we compare with previous work and show that our audit method outperforms the rest in auditing various differentially private algorithms. We also provide experiments that give contrasting conclusions to previous work on the parameter settings for privacy audits in one run.
- Abstract(参考訳): 本稿では,プライバシ監査の問題を1回に分けて検討し,各プロトコルの厳密な監査結果が得られたことを示す。
これには$(\varepsilon,\delta)$-DPアルゴリズムの監査のための厳密な結果が含まれる。
まずプライバシ監査のためのフレームワークを,従来の作業と比較して改善を加えて定式化する。
そして、$f$-DPの定式化によるプライバシーのモデル化に基づいて、理論上正当化されたプライバシー監査の下位境界を得るために、我々のフレームワークがもたらす意味を考察する。
実験では, 従来の研究と比較し, 各種の差分プライベートアルゴリズムの監査において, 監査手法が他の手法よりも優れていることを示す。
また,プライバシ監査のパラメータ設定に関するこれまでの研究と対照的な結論を与える実験も実施している。
関連論文リスト
- How Well Can Differential Privacy Be Audited in One Run? [2.687273760177295]
我々は,1回の監査で達成可能な最大効果を特徴付けるとともに,その有効性の鍵となる障壁は,異なるデータ要素の観測可能な効果間の干渉であることを示す。
本稿では,この障壁を最小化するための新しい概念的アプローチを提案する。
論文 参考訳(メタデータ) (2025-03-10T11:32:30Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - Adversarial Sample-Based Approach for Tighter Privacy Auditing in Final Model-Only Scenarios [5.116399056871577]
追加の仮定を伴わずにより厳密な経験的下限を実現する新しい監査手法を提案する。
我々のアプローチは従来のカナリアベースの逆数を超え、最終的なモデルのみのシナリオで有効である。
論文 参考訳(メタデータ) (2024-12-02T17:52:16Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。