論文の概要: Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints
- arxiv url: http://arxiv.org/abs/2206.07234v4
- Date: Fri, 10 Nov 2023 22:23:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 23:08:34.117773
- Title: Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints
- Title(参考訳): brownian noise reduction: 正確性制約によるプライバシーの最大化
- Authors: Justin Whitehouse, Zhiwei Steven Wu, Aaditya Ramdas, Ryan Rogers
- Abstract要約: 研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
- 参考スコア(独自算出の注目度): 53.01656650117495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a disconnect between how researchers and practitioners handle
privacy-utility tradeoffs. Researchers primarily operate from a privacy first
perspective, setting strict privacy requirements and minimizing risk subject to
these constraints. Practitioners often desire an accuracy first perspective,
possibly satisfied with the greatest privacy they can get subject to obtaining
sufficiently small error. Ligett et al. have introduced a "noise reduction"
algorithm to address the latter perspective. The authors show that by adding
correlated Laplace noise and progressively reducing it on demand, it is
possible to produce a sequence of increasingly accurate estimates of a private
parameter while only paying a privacy cost for the least noisy iterate
released. In this work, we generalize noise reduction to the setting of
Gaussian noise, introducing the Brownian mechanism. The Brownian mechanism
works by first adding Gaussian noise of high variance corresponding to the
final point of a simulated Brownian motion. Then, at the practitioner's
discretion, noise is gradually decreased by tracing back along the Brownian
path to an earlier time. Our mechanism is more naturally applicable to the
common setting of bounded $\ell_2$-sensitivity, empirically outperforms
existing work on common statistical tasks, and provides customizable control of
privacy loss over the entire interaction with the practitioner. We complement
our Brownian mechanism with ReducedAboveThreshold, a generalization of the
classical AboveThreshold algorithm that provides adaptive privacy guarantees.
Overall, our results demonstrate that one can meet utility constraints while
still maintaining strong levels of privacy.
- Abstract(参考訳): 研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方がある。
研究者は主にプライバシファーストの観点から活動し、厳格なプライバシー要件を設定し、これらの制約によるリスクを最小限に抑える。
実践者は、しばしば正確性第一の視点を望んでおり、おそらく、十分に小さなエラーを得られる最大のプライバシーに満足している。
Ligettらは後者の観点に対処する"ノイズ低減"アルゴリズムを導入した。
筆者らは,関連するラプラスノイズを付加し,オンデマンドで徐々に低減することで,より正確なプライベートパラメータの推定を連続的に生成し,最小ノイズのイテレートに対してのみプライバシコストを支払えばよいことを示した。
本研究では,ガウス雑音の設定にノイズ低減を一般化し,ブラウン機構を導入する。
ブラウン機構はまず、シミュレーションされたブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
そして、実践者の判断において、ブラウン経路に沿って早く遡ることで、ノイズは徐々に減少する。
我々のメカニズムは、有界な$\ell_2$-sensitivityの共通設定に自然に適用され、一般的な統計タスクにおける既存の作業よりも経験的に優れ、実践者とのインタラクション全体に対するプライバシー損失のカスタマイズ可能な制御を提供する。
我々は、適応的なプライバシー保証を提供する古典的なAboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdで、ブラウン機構を補完する。
全体としては,高いプライバシレベルを維持しながら,実用上の制約を満たせることを実証した。
関連論文リスト
- Certification for Differentially Private Prediction in Gradient-Based Training [36.686002369773014]
我々は凸緩和と有界伝播を用いて、予測の局所的および滑らかな感度の証明可能な上界を計算する。
このバウンダリによって、プライベートな予測設定で付加されるノイズの規模を減らしたり、プライバシ会計を改善することができます。
論文 参考訳(メタデータ) (2024-06-19T10:47:00Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Dynamic Privacy Allocation for Locally Differentially Private Federated
Learning with Composite Objectives [10.528569272279999]
本稿では,強い凸性を持つが非滑らかな問題に対する差分プライベートなフェデレーション学習アルゴリズムを提案する。
提案アルゴリズムは、共有情報に人工ノイズを加えてプライバシーを確保するとともに、時間変化のノイズ分散を動的に割り当て、最適化誤差の上限を最小化する。
解析結果から,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-02T13:30:33Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Privacy of Noisy Stochastic Gradient Descent: More Iterations without
More Privacy Loss [34.66940399825547]
業界は単純なアルゴリズムを広く採用している:騒音を伴うグラディエントDescent(グラディエントLangevin Dynamics)
このアルゴリズムのプライバシ損失に関する疑問は、バウンドドメイン上の滑らかな凸損失の一見単純な設定であっても、まだオープンである。
我々は、差分プライバシーを一定の要因まで特徴づけ、小さなバーンイン期間の後、SGDの実行がこれ以上のプライバシーを漏らさないことを示す。
論文 参考訳(メタデータ) (2022-05-27T02:09:55Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。