論文の概要: Locally Differentially Private Bayesian Inference
- arxiv url: http://arxiv.org/abs/2110.14426v1
- Date: Wed, 27 Oct 2021 13:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 19:28:14.065730
- Title: Locally Differentially Private Bayesian Inference
- Title(参考訳): 局所微分的プライベートベイズ推論
- Authors: Tejas Kulkarni, Joonas J\"alk\"o, Samuel Kaski, Antti Honkela
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
- 参考スコア(独自算出の注目度): 23.882144188177275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, local differential privacy (LDP) has emerged as a technique
of choice for privacy-preserving data collection in several scenarios when the
aggregator is not trustworthy. LDP provides client-side privacy by adding noise
at the user's end. Thus, clients need not rely on the trustworthiness of the
aggregator.
In this work, we provide a noise-aware probabilistic modeling framework,
which allows Bayesian inference to take into account the noise added for
privacy under LDP, conditioned on locally perturbed observations. Stronger
privacy protection (compared to the central model) provided by LDP protocols
comes at a much harsher privacy-utility trade-off. Our framework tackles
several computational and statistical challenges posed by LDP for accurate
uncertainty quantification under Bayesian settings. We demonstrate the efficacy
of our framework in parameter estimation for univariate and multi-variate
distributions as well as logistic and linear regression.
- Abstract(参考訳): 近年、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシー保護データ収集の選択手法として、ローカルディファレンシャルプライバシ(LDP)が出現している。
LDPは、ユーザの端にノイズを加えることによって、クライアント側のプライバシを提供する。
したがって、クライアントはアグリゲータの信頼性に頼る必要はない。
本研究では,局所摂動観測に基づいて,LDPの下でのプライバシーに付加される雑音をベイジアン推論で考慮し,雑音を考慮した確率的モデリングフレームワークを提案する。
LDPプロトコルが提供する強力なプライバシ保護(中央モデルと比較)は、より厳格なプライバシユーティリティトレードオフをもたらす。
ベイズ条件下での正確な不確かさの定量化のために, ldpが提起した計算と統計の課題に取り組む。
本稿では,不定値分布および多変量分布に対するパラメータ推定とロジスティック回帰および線形回帰の枠組みの有効性を示す。
関連論文リスト
- A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss
Approximations [58.192338472631405]
FedLAP-DPは、フェデレーション学習のための新しいプライバシー保護アプローチである。
我々の定式化は、クライアントから受信した合成サンプルを活用することで、グローバルな最適化を可能にします。
プライバシーの懸念が高まりつつある中で、私たちのアプローチがレコードレベルの差分プライバシーとシームレスに機能することを実証しています。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - Connect the Dots: Tighter Discrete Approximations of Privacy Loss
Distributions [49.726408540784334]
PLDベースの会計の鍵となる問題は、特定の個別サポートに対してPLDと(潜在的に連続的な)PLDをどのように近似するかである。
悲観的推定はすべての悲観的推定の中で最良であることを示す。
論文 参考訳(メタデータ) (2022-07-10T04:25:02Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private and Utility Enhanced Recommendations with Local Differential
Privacy and Gaussian Mixture Model [14.213973630742666]
ローカル差動プライバシー(LDP)ベースの摂動メカニズムは、サービスプロバイダー(SP)に送信する前に、ユーザー側のユーザーデータにノイズを追加します。
LDPはユーザーのプライバシーをSPから保護しますが、予測精度が大幅に低下します。
提案手法は, LDPの原則に違反することなく, 推薦精度を向上する。
論文 参考訳(メタデータ) (2021-02-26T13:15:23Z) - Local Differential Privacy Is Equivalent to Contraction of
$E_\gamma$-Divergence [7.807294944710216]
我々は, LDP 制約を$E_gamma$-divergence の縮約係数で等価にキャストできることを示す。
次に、この等価式を用いて、任意の$f$-divergencesの収縮係数の観点から、プライバシー機構のLCP保証を表現する。
論文 参考訳(メタデータ) (2021-02-02T02:18:12Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Successive Refinement of Privacy [38.20887036580742]
本研究は、局所微分プライバシー(LDP)を実現するために、どの程度ランダム性が必要かを検討する。
モチベーションシナリオは、複数のアナリストに複数のレベルのプライバシを提供することである。
各ユーザのプライバシーを維持しながら、ランダムなキーを時間の経過とともに再利用できないことを示す。
論文 参考訳(メタデータ) (2020-05-24T04:16:01Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。