論文の概要: Verifying Differentially Private Median Estimation
- arxiv url: http://arxiv.org/abs/2505.16246v1
- Date: Thu, 22 May 2025 05:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.056716
- Title: Verifying Differentially Private Median Estimation
- Title(参考訳): 個人別メディア推定の検証
- Authors: Hyukjun Kwon, Chenglin Fan,
- Abstract要約: そこで本研究では,zk-SNARKをベースとした最初の検証可能な個人中央値推定手法を提案する。
提案方式では,指数関数機構と中央値推定のためのユーティリティ関数を演算回路に結合する。
- 参考スコア(独自算出の注目度): 4.083860866484599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential Privacy (DP) is a robust privacy guarantee that is widely employed in private data analysis today, finding broad application in domains such as statistical query release and machine learning. However, DP achieves privacy by introducing noise into data or query answers, which malicious actors could exploit during analysis. To address this concern, we propose the first verifiable differentially private median estimation scheme based on zk-SNARKs. Our scheme combines the exponential mechanism and a utility function for median estimation into an arithmetic circuit, leveraging a scaled version of the inverse cumulative distribution function (CDF) method for precise sampling from the distribution derived from the utility function. This approach not only ensures privacy but also provides a mechanism to verify that the algorithm achieves DP guarantees without revealing sensitive information in the process.
- Abstract(参考訳): 差別化プライバシ(DP)は、今日のプライベートデータ分析で広く採用されている堅牢なプライバシ保証であり、統計クエリリリースや機械学習などの領域で広く適用されている。
しかし、DPは、分析中に悪質なアクターが活用できるデータやクエリーにノイズを導入することで、プライバシを実現する。
この問題に対処するために、zk-SNARKに基づく、初めて検証可能な微分プライベート中央値推定手法を提案する。
本手法では,指数関数と中央値推定のためのユーティリティ関数を組み合わせた逆累積分布関数 (CDF) 法のスケール版を利用して,有効関数から導出した分布を正確にサンプリングする。
このアプローチは、プライバシを保証するだけでなく、プロセス内の機密情報を明らかにすることなく、DP保証を達成するためのメカニズムを提供する。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Auditing Differential Privacy Guarantees Using Density Estimation [3.830092569453011]
DP機構の差分プライバシー保証を正確に評価するための新しい手法を提案する。
特に、我々のソリューションは、機械学習(ML)モデルのDP保証の監査に適用できる。
論文 参考訳(メタデータ) (2024-06-07T10:52:15Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Propose, Test, Release: Differentially private estimation with high
probability [9.25177374431812]
我々はPTR機構の新たな一般バージョンを導入し、微分プライベートな推定器に対して高い確率誤差境界を導出する。
我々のアルゴリズムは、データ上の有界性仮定なしで中央値と平均値の差分プライベートな推定を行うための最初の統計的保証を提供する。
論文 参考訳(メタデータ) (2020-02-19T01:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。