論文の概要: Unleash the Power of Ellipsis: Accuracy-enhanced Sparse Vector Technique with Exponential Noise
- arxiv url: http://arxiv.org/abs/2407.20068v1
- Date: Mon, 29 Jul 2024 14:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 13:24:58.397765
- Title: Unleash the Power of Ellipsis: Accuracy-enhanced Sparse Vector Technique with Exponential Noise
- Title(参考訳): 楕円のパワーを解き放つ:指数雑音による高精度スパースベクトル法
- Authors: Yuhan Liu, Sheng Wang, Yixuan Liu, Feifei Li, Hong Chen,
- Abstract要約: Sparse Vector Technique (SVT)は、差分プライバシー(DP)において最も基本的なツールの1つである。
ノイズの多いクエリ結果を直接公開する一般的なプライベートクエリリリースとは異なり、SVTは情報が少ない。
情報に乏しい性質を考慮し,SVTの新たなプライバシ分析を行う。
- 参考スコア(独自算出の注目度): 32.79378183735303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Sparse Vector Technique (SVT) is one of the most fundamental tools in differential privacy (DP). It works as a backbone for adaptive data analysis by answering a sequence of queries on a given dataset, and gleaning useful information in a privacy-preserving manner. Unlike the typical private query releases that directly publicize the noisy query results, SVT is less informative -- it keeps the noisy query results to itself and only reveals a binary bit for each query, indicating whether the query result surpasses a predefined threshold. To provide a rigorous DP guarantee for SVT, prior works in the literature adopt a conservative privacy analysis by assuming the direct disclosure of noisy query results as in typical private query releases. This approach, however, hinders SVT from achieving higher query accuracy due to an overestimation of the privacy risks, which further leads to an excessive noise injection using the Laplacian or Gaussian noise for perturbation. Motivated by this, we provide a new privacy analysis for SVT by considering its less informative nature. Our analysis results not only broaden the range of applicable noise types for perturbation in SVT, but also identify the exponential noise as optimal among all evaluated noises (which, however, is usually deemed non-applicable in prior works). The main challenge in applying exponential noise to SVT is mitigating the sub-optimal performance due to the bias introduced by noise distributions. To address this, we develop a utility-oriented optimal threshold correction method and an appending strategy, which enhances the performance of SVT by increasing the precision and recall, respectively. The effectiveness of our proposed methods is substantiated both theoretically and empirically, demonstrating significant improvements up to $50\%$ across evaluated metrics.
- Abstract(参考訳): Sparse Vector Technique (SVT)は、差分プライバシー(DP)において最も基本的なツールの1つである。
特定のデータセット上のクエリのシーケンスに応答し、プライバシー保護の方法で有用な情報を収集することで、アダプティブなデータ分析のバックボーンとして機能する。
ノイズの多いクエリ結果を直接公開する一般的なプライベートクエリリリースとは異なり、SVTは情報が少ない -- ノイズの多いクエリ結果をそれ自体に保持し、クエリ毎にバイナリビットのみを公開し、クエリ結果が予め定義されたしきい値を超えるかどうかを示す。
一般的なプライベートクエリリリースとしてノイズの多いクエリ結果の直接開示を仮定して、文献における先行研究が保守的なプライバシ分析を採用するSVTの厳格なDP保証を提供する。
しかしこのアプローチは、プライバシーリスクの過大評価によりSVTがより高いクエリ精度を達成するのを妨げ、さらにラプラシアンノイズやガウスノイズを摂動に用いた過度なノイズ注入がもたらされる。
そこで本研究では,情報に乏しいことを考慮し,SVTの新たなプライバシ分析を行う。
解析結果は,SVTの摂動に適応する雑音の種類の範囲を広げるだけでなく,指数雑音をすべての評価ノイズの中で最適とみなす(ただし,従来は適用不可能である)。
SVTに指数雑音を適用する際の主な課題は、雑音分布によるバイアスによる準最適性能の軽減である。
そこで本研究では,SVTの精度向上とリコールにより,SVTの性能向上を図った,ユーティリティ指向の最適しきい値補正手法と付加戦略を開発する。
提案手法の有効性を理論的にも実証的にも実証的にも検証し,評価指標に対して最大50\%の大幅な改善が得られた。
関連論文リスト
- SoftPatch: Unsupervised Anomaly Detection with Noisy Data [67.38948127630644]
本稿では,画像センサ異常検出におけるラベルレベルのノイズを初めて考察する。
本稿では,メモリベースの非教師付きAD手法であるSoftPatchを提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
論文 参考訳(メタデータ) (2024-03-21T08:49:34Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Adaptive Differential Privacy in Federated Learning: A Priority-Based
Approach [0.0]
フェデレートラーニング(FL)は、ローカルデータセットに直接アクセスせずにグローバルモデルを開発する。
DPはパラメータに一定のノイズを加えることで、プライバシーを保証するフレームワークを提供する。
本稿では,特徴量の相対的重要度に基づいて入射雑音の値を決定するFLの適応雑音付加法を提案する。
論文 参考訳(メタデータ) (2024-01-04T03:01:15Z) - A Corrected Expected Improvement Acquisition Function Under Noisy
Observations [22.63212972670109]
期待される改善の順序 (EI) はベイズ最適化において最も広く用いられている政策の一つである。
既存の解に関する不確実性は、多くの解析的EI型法で無視されることが多い。
本稿では,ガウス過程(GP)モデルによって提供される共分散情報を組み込むことで,その閉形式表現を補正するEIの修正を提案する。
論文 参考訳(メタデータ) (2023-10-08T13:50:39Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Optimum Noise Mechanism for Differentially Private Queries in Discrete Finite Sets [3.5379819043314176]
本稿では,離散的かつ有限な問合せセットに適した最適ノイズマス確率関数を設計するための新しいフレームワークを提案する。
我々のフレームワークは、任意の$(epsilon, delta)$制約の下でノイズ分布を最適化し、応答の精度と有用性を向上させる。
数値実験により,提案手法の最先端手法と比較して,最適機構の優れた性能が示された。
論文 参考訳(メタデータ) (2021-11-23T05:24:34Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。