論文の概要: Monitoring Violations of Differential Privacy over Time
- arxiv url: http://arxiv.org/abs/2509.20283v1
- Date: Wed, 24 Sep 2025 16:15:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.899848
- Title: Monitoring Violations of Differential Privacy over Time
- Title(参考訳): 時間的差分プライバシーの監視
- Authors: Önder Askin, Tim Kutta, Holger Dette,
- Abstract要約: 開発や展開の過程で変化を経験できるメカニズムの持続的な監査について検討する。
最先端の(静的な)監査を何度も実行するには、過剰なサンプリング努力が必要である。
本稿では,アルゴリズムの展開履歴全体から情報を抽出する新しいモニタリング手法を提案する。
- 参考スコア(独自算出の注目度): 3.3900431852643114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auditing differential privacy has emerged as an important area of research that supports the design of privacy-preserving mechanisms. Privacy audits help to obtain empirical estimates of the privacy parameter, to expose flawed implementations of algorithms and to compare practical with theoretical privacy guarantees. In this work, we investigate an unexplored facet of privacy auditing: the sustained auditing of a mechanism that can go through changes during its development or deployment. Monitoring the privacy of algorithms over time comes with specific challenges. Running state-of-the-art (static) auditors repeatedly requires excessive sampling efforts, while the reliability of such methods deteriorates over time without proper adjustments. To overcome these obstacles, we present a new monitoring procedure that extracts information from the entire deployment history of the algorithm. This allows us to reduce sampling efforts, while sustaining reliable outcomes of our auditor. We derive formal guarantees with regard to the soundness of our methods and evaluate their performance for important mechanisms from the literature. Our theoretical findings and experiments demonstrate the efficacy of our approach.
- Abstract(参考訳): 差分プライバシーの監査は、プライバシー保護機構の設計を支援する研究の重要分野として浮上している。
プライバシ監査は、プライバシパラメータの実証的な推定値を取得し、アルゴリズムの欠陥実装を公開し、実用的なプライバシ保証と理論的プライバシ保証を比較するのに役立つ。
本研究では、プライバシ監査の未検討の側面として、開発やデプロイメントにおいて変更を経ることのできるメカニズムの持続的な監査について検討する。
アルゴリズムのプライバシーの監視には、特定の課題が伴う。
最先端の(静的な)監査官の運用には過剰なサンプリング作業が必要であり、そのような手法の信頼性は適切な調整なしに経時的に劣化する。
これらの障害を克服するために,アルゴリズムの展開履歴全体から情報を抽出する新しいモニタリング手法を提案する。
これにより、監査人の信頼できる成果を維持しながら、サンプリング作業の削減が可能になります。
本研究は,本手法の健全性に関する形式的保証を導き,その性能を文献から評価する。
我々の理論的な発見と実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- Do We Need to Verify Step by Step? Rethinking Process Supervision from a Theoretical Perspective [59.61868506896214]
標準的なデータカバレッジの仮定では、強化学習はプロセスの監督よりも統計的に難しいものではない。
任意のポリシーの利点関数が最適なプロセス報酬モデルとして機能することを証明する。
論文 参考訳(メタデータ) (2025-02-14T22:21:56Z) - Privacy Audit as Bits Transmission: (Im)possibilities for Audit by One Run [7.850976675388593]
情報理論の原則に基づくプライバシー監査のための統一フレームワークを提案する。
プライバシ監査の手法を1回実行することで,単一実行監査が実現可能あるいは実現不可能な条件を特定する。
論文 参考訳(メタデータ) (2025-01-29T16:38:51Z) - Auditing $f$-Differential Privacy in One Run [43.34594422920125]
実証監査は、プライバシ保護アルゴリズムの実装におけるいくつかの欠陥をキャッチする手段として登場した。
本稿では,メカニズムのプライバシを効果的に評価できる,厳密で効率的な監査手順と分析法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:02:22Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。