論文の概要: How Well Can Differential Privacy Be Audited in One Run?
- arxiv url: http://arxiv.org/abs/2503.07199v2
- Date: Mon, 26 May 2025 07:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:53.564013
- Title: How Well Can Differential Privacy Be Audited in One Run?
- Title(参考訳): 差別化のプライバシは、どうやって一度に監査できるのか?
- Authors: Amit Keinan, Moshe Shenfeld, Katrina Ligett,
- Abstract要約: 我々は,1回の監査で達成可能な最大効果を特徴付けるとともに,その有効性の鍵となる障壁は,異なるデータ要素の観測可能な効果間の干渉であることを示す。
本稿では,この障壁を最小化するための新しい概念的アプローチを提案する。
- 参考スコア(独自算出の注目度): 2.687273760177295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent methods for auditing the privacy of machine learning algorithms have improved computational efficiency by simultaneously intervening on multiple training examples in a single training run. Steinke et al. (2024) prove that one-run auditing indeed lower bounds the true privacy parameter of the audited algorithm, and give impressive empirical results. Their work leaves open the question of how precisely one-run auditing can uncover the true privacy parameter of an algorithm, and how that precision depends on the audited algorithm. In this work, we characterize the maximum achievable efficacy of one-run auditing and show that the key barrier to its efficacy is interference between the observable effects of different data elements. We present new conceptual approaches to minimize this barrier, towards improving the performance of one-run auditing of real machine learning algorithms.
- Abstract(参考訳): 近年,機械学習アルゴリズムのプライバシ監査手法は,複数のトレーニング事例を1回のトレーニング実行で同時に介入することにより,計算効率の向上を実現している。
Steinke et al (2024) は、一方的な監査が実際に監査されたアルゴリズムの真のプライバシーパラメータの境界を低くし、印象的な経験的な結果をもたらすことを証明している。
彼らの研究は、一方的な監査がアルゴリズムの真のプライバシパラメータをいかに正確に発見できるか、そしてその精度が監査されたアルゴリズムにどのように依存するか、という疑問を解き放っている。
本研究では,1回の監査で達成可能な最大効果を特徴付けるとともに,その有効性の鍵となる障壁は,異なるデータ要素の観測可能な効果の干渉であることを示す。
本稿では,この障壁を最小化するための新しい概念的アプローチを提案する。
関連論文リスト
- Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - A Game-Theoretic Analysis of Auditing Differentially Private Algorithms with Epistemically Disparate Herd [16.10098472773814]
本研究は,Stackelbergゲームアプローチを用いたアルゴリズム開発者に対する群集監査の効果について検討する。
透明性と説明責任を高めることで、Hed auditはプライバシ保護アルゴリズムの責任ある開発に寄与する。
論文 参考訳(メタデータ) (2024-04-24T20:34:27Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。