論文の概要: Differential Privacy at Risk: Bridging Randomness and Privacy Budget
- arxiv url: http://arxiv.org/abs/2003.00973v2
- Date: Mon, 13 Apr 2020 23:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:06:33.541052
- Title: Differential Privacy at Risk: Bridging Randomness and Privacy Budget
- Title(参考訳): ディファレンシャルプライバシのリスク - ランダム性とプライバシ予算の橋渡し
- Authors: Ashish Dandekar, Debabrota Basu, Stephane Bressan
- Abstract要約: 我々は、ノイズ分布によって引き起こされる明示的ランダム性や、データ生成によって引き起こされる暗黙的ランダム性など、ランダム性源の役割を分析する。
プライバシ保存機構の確率的校正であるリスクのあるプライバシを提案する。
コスト最適プライバシを用いたコンポジションは,従来の高度なコンポジションよりも強力なプライバシ保証を提供することを示す。
- 参考スコア(独自算出の注目度): 5.393465689287103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The calibration of noise for a privacy-preserving mechanism depends on the
sensitivity of the query and the prescribed privacy level. A data steward must
make the non-trivial choice of a privacy level that balances the requirements
of users and the monetary constraints of the business entity. We analyse roles
of the sources of randomness, namely the explicit randomness induced by the
noise distribution and the implicit randomness induced by the data-generation
distribution, that are involved in the design of a privacy-preserving
mechanism. The finer analysis enables us to provide stronger privacy guarantees
with quantifiable risks. Thus, we propose privacy at risk that is a
probabilistic calibration of privacy-preserving mechanisms. We provide a
composition theorem that leverages privacy at risk. We instantiate the
probabilistic calibration for the Laplace mechanism by providing analytical
results. We also propose a cost model that bridges the gap between the privacy
level and the compensation budget estimated by a GDPR compliant business
entity. The convexity of the proposed cost model leads to a unique fine-tuning
of privacy level that minimises the compensation budget. We show its
effectiveness by illustrating a realistic scenario that avoids overestimation
of the compensation budget by using privacy at risk for the Laplace mechanism.
We quantitatively show that composition using the cost optimal privacy at risk
provides stronger privacy guarantee than the classical advanced composition.
- Abstract(参考訳): プライバシ保存機構のノイズのキャリブレーションは、クエリの感度と所定のプライバシレベルに依存する。
データスチュワードは、ユーザの要求とビジネスエンティティの金銭的制約のバランスをとるプライバシーレベルの非自明な選択をしなければならない。
本稿では,プライバシ保存機構の設計に関与するノイズ分布とデータ生成分布による暗黙的ランダム性に起因した明示的ランダム性というランダム性源の役割について分析する。
より詳細な分析により、定量化可能なリスクでより強力なプライバシー保証を提供できる。
そこで我々は,プライバシ保護機構の確率的校正を行うリスクのあるプライバシを提案する。
我々は、プライバシーを危険にさらす合成定理を提供する。
解析結果を提供することにより,ラプラス機構の確率的校正を行う。
また、GDPR準拠の企業において、プライバシレベルと補償予算とのギャップを埋めるコストモデルを提案する。
提案したコストモデルの凸性は、補償予算を最小化する独自のプライバシーレベルの調整につながる。
ラプラス機構のリスクにプライバシを使用することで、補償予算の過大評価を避ける現実的なシナリオを図示することで、その効果を示す。
コスト最適プライバシを用いた構成が、古典的な高度な構成よりも高いプライバシー保証を提供することを定量的に示す。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - Chained-DP: Can We Recycle Privacy Budget? [18.19895364709435]
本稿では,ユーザが順次データアグリゲーションを実行し,プライバシ予算を再利用することのできる,新しいChained-DPフレームワークを提案する。
逐次ゲームの数学的性質を示し、そのナッシュ平衡を解き、証明可能な経済特性を持つインセンティブメカニズムを設計する。
提案手法の有効性を数値シミュレーションにより検証し,従来のLPP機構と比較して,プライバシ予算の大幅な削減と推定誤差の低減を図った。
論文 参考訳(メタデータ) (2023-09-12T08:07:59Z) - Prior-itizing Privacy: A Bayesian Approach to Setting the Privacy Budget in Differential Privacy [0.3683202928838613]
開示のベイズ的後部確率との関係に基づいて$varepsilon$を設定するためのフレームワークを提供する。
データリリースの責任者は、さまざまなレベルの事前リスクで、どれくらいの後方リスクを受け入れるかを決定する。
論文 参考訳(メタデータ) (2023-06-19T22:23:09Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。