論文の概要: Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run
- arxiv url: http://arxiv.org/abs/2501.17750v1
- Date: Wed, 29 Jan 2025 16:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:44.639063
- Title: Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run
- Title(参考訳): ビット送信としてのプライバシ監査: (Im)1ランによる監査の可能性
- Authors: Zihang Xiang, Tianhao Wang, Di Wang,
- Abstract要約: 情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
- 参考スコア(独自算出の注目度): 7.850976675388593
- License:
- Abstract: Auditing algorithms' privacy typically involves simulating a game-based protocol that guesses which of two adjacent datasets was the original input. Traditional approaches require thousands of such simulations, leading to significant computational overhead. Recent methods propose single-run auditing of the target algorithm to address this, substantially reducing computational cost. However, these methods' general applicability and tightness in producing empirical privacy guarantees remain uncertain. This work studies such problems in detail. Our contributions are twofold: First, we introduce a unifying framework for privacy audits based on information-theoretic principles, modeling the audit as a bit transmission problem in a noisy channel. This formulation allows us to derive fundamental limits and develop an audit approach that yields tight privacy lower bounds for various DP protocols. Second, leveraging this framework, we demystify the method of privacy audit by one run, identifying the conditions under which single-run audits are feasible or infeasible. Our analysis provides general guidelines for conducting privacy audits and offers deeper insights into the privacy audit. Finally, through experiments, we demonstrate that our approach produces tighter privacy lower bounds on common differentially private mechanisms while requiring significantly fewer observations. We also provide a case study illustrating that our method successfully detects privacy violations in flawed implementations of private algorithms.
- Abstract(参考訳): アルゴリズムのプライバシの監査は通常、隣接する2つのデータセットのどれが元の入力であるかを推測するゲームベースのプロトコルをシミュレートする。
従来の手法では何千ものシミュレーションが必要であり、計算オーバーヘッドが大きくなった。
近年の手法では,この問題に対処するため,対象アルゴリズムの単一実行監査を提案し,計算コストを大幅に削減する。
しかし、これらの手法の一般的な適用性と、実証的なプライバシー保証を作成するための厳密さは、いまだに不確実である。
この研究はそのような問題を詳細に研究している。
まず、情報理論の原則に基づくプライバシー監査のための統一フレームワークを導入し、ノイズのあるチャネルでビット送信問題として監査をモデル化します。
この定式化により、基本的限界を導出し、様々なDPプロトコルの厳密なプライバシーを低くする監査手法を開発することができる。
第二に、この枠組みを利用してプライバシー監査の手法を1回実行することで、単一実行監査が実現可能または実現不可能な条件を特定します。
我々の分析は、プライバシー監査を行うための一般的なガイドラインを提供し、プライバシー監査に関する深い洞察を提供する。
最後に、実験により、我々の手法は、より厳密なプライバシーの低い共通的な差分なメカニズムを発生させながら、より少ない観察を要求されることを実証した。
また,提案手法は,プライベートアルゴリズムの欠陥実装におけるプライバシー侵害の検出に成功していることを示すケーススタディも提供する。
関連論文リスト
- Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Auditing Private Prediction [45.23153167486169]
PATE, CaPC, PromptPATE, Private-kNNの4つのプライベート予測アルゴリズムのプライバシー漏洩について検討した。
実験の結果, (i) プライベート予測のプライバシー分析は改善され, (ii) 有害なアルゴリズムは, はるかに高いプライバシー侵害を引き起こし, (iii) プライバシー漏洩は, クエリ制御のない敵に対して, 完全制御のアルゴリズムよりも有意に低いことがわかった。
論文 参考訳(メタデータ) (2024-02-14T18:59:27Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。