論文の概要: Learning Numeric Optimal Differentially Private Truncated Additive
Mechanisms
- arxiv url: http://arxiv.org/abs/2107.12957v1
- Date: Tue, 27 Jul 2021 17:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:29:06.939569
- Title: Learning Numeric Optimal Differentially Private Truncated Additive
Mechanisms
- Title(参考訳): learning numeric optimal differentially truncated additive mechanism(英語)
- Authors: David M. Sommer, Lukas Abfalterer, Sheila Zingg and Esfandiar
Mohammadi
- Abstract要約: 実効性境界が強い付加的なメカニズムに対して,トランクテッドノイズを学習するためのツールを提案する。
平均単調な単調な音から, 対称性やその新しい音を考慮すれば十分であることを示す。
感度境界機構については, 平均単調な単調なノイズから, 対称性とその新しさを考えるのに十分であることを示す。
- 参考スコア(独自算出の注目度): 5.079561894598125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private (DP) mechanisms face the challenge of providing
accurate results while protecting their inputs: the privacy-utility trade-off.
A simple but powerful technique for DP adds noise to sensitivity-bounded query
outputs to blur the exact query output: additive mechanisms. While a vast body
of work considers infinitely wide noise distributions, some applications (e.g.,
real-time operating systems) require hard bounds on the deviations from the
real query, and only limited work on such mechanisms exist. An additive
mechanism with truncated noise (i.e., with bounded range) can offer such hard
bounds. We introduce a gradient-descent-based tool to learn truncated noise for
additive mechanisms with strong utility bounds while simultaneously optimizing
for differential privacy under sequential composition, i.e., scenarios where
multiple noisy queries on the same data are revealed. Our method can learn
discrete noise patterns and not only hyper-parameters of a predefined
probability distribution. For sensitivity bounded mechanisms, we show that it
is sufficient to consider symmetric and that\new{, for from the mean
monotonically falling noise,} ensuring privacy for a pair of representative
query outputs guarantees privacy for all pairs of inputs (that differ in one
element). We find that the utility-privacy trade-off curves of our generated
noise are remarkably close to truncated Gaussians and even replicate their
shape for $l_2$ utility-loss. For a low number of compositions, we also
improved DP-SGD (sub-sampling). Moreover, we extend Moments Accountant to
truncated distributions, allowing to incorporate mechanism output events with
varying input-dependent zero occurrence probability.
- Abstract(参考訳): 異なるプライベート(DP)メカニズムは、入力を保護しながら正確な結果を提供するという課題に直面している。
DPの単純だが強力なテクニックは、感度に縛られたクエリ出力にノイズを加えて、正確なクエリ出力を曖昧にする。
膨大な量の作業が無限に広いノイズ分布を考慮しているが、いくつかのアプリケーション(例えばリアルタイムオペレーティングシステム)は実際のクエリからの逸脱にハードバウンドを必要とし、そのようなメカニズムに関する限られた作業しか存在しない。
遮断されたノイズ(すなわち有界範囲)を持つ付加的なメカニズムは、そのようなハード境界を提供することができる。
本稿では,逐次構成下でのディファレンシャルプライバシの最適化,すなわち同一データに対する複数のノイズクエリが露呈するシナリオを同時に行うとともに,強力なユーティリティ境界を持つ付加機構の停止音を学習する勾配descent-based toolを提案する。
本手法は,事前定義された確率分布のハイパーパラメータだけでなく,離散雑音パターンも学習できる。
感度の有界なメカニズムについては、一対の代表的クエリ出力に対するプライバシの確保は、すべての入力のプライバシを保証する(1つの要素で異なる)。
生成したノイズのユーティリティ・プライバシーのトレードオフ曲線は、ガウス型に非常に近いため、その形状をl_2$ユーティリティー損失で再現することもできます。
少ない構成でdp-sgd (sub-sampling) も改善した。
さらに,モーメント会計を停止分布に拡張することで,入力依存ゼロ発生確率の異なる機構出力イベントを組み込むことができる。
関連論文リスト
- On the Privacy of Selection Mechanisms with Gaussian Noise [50.10075455235939]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Robust Control for Dynamical Systems With Non-Gaussian Noise via Formal
Abstractions [59.605246463200736]
雑音分布の明示的な表現に依存しない新しい制御器合成法を提案する。
まず、連続制御系を有限状態モデルに抽象化し、離散状態間の確率的遷移によってノイズを捕捉する。
我々は最先端の検証技術を用いてマルコフ決定プロセスの間隔を保証し、これらの保証が元の制御システムに受け継がれるコントローラを演算する。
論文 参考訳(メタデータ) (2023-01-04T10:40:30Z) - Introducing the Huber mechanism for differentially private low-rank
matrix completion [9.944551494217075]
差分プライバシーを維持するための新しいノイズ付加機構を提案する。
提案するHuberメカニズムは,既存の差分プライバシーメカニズムに対して評価される。
提案機構は,Laplace機構と同様のエプシロン差分プライバシーを実現する。
論文 参考訳(メタデータ) (2022-06-16T04:33:06Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Sampling-Based Robust Control of Autonomous Systems with Non-Gaussian
Noise [59.47042225257565]
雑音分布の明示的な表現に依存しない新しい計画法を提案する。
まず、連続系を離散状態モデルに抽象化し、状態間の確率的遷移によってノイズを捕捉する。
いわゆる区間マルコフ決定過程(iMDP)の遷移確率区間におけるこれらの境界を捉える。
論文 参考訳(メタデータ) (2021-10-25T06:18:55Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - The Discrete Gaussian for Differential Privacy [23.977143445822897]
微分プライベートシステムを構築するための重要なツールは、機密データセットで評価された関数の出力にガウスノイズを追加することである。
これまでの研究は、一見無害な数値エラーがプライバシーを完全に破壊することを示した。
差分プライバシーの文脈において、離散ガウシアンを導入・分析する。
論文 参考訳(メタデータ) (2020-03-31T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。