論文の概要: On the Utility Gain of Iterative Bayesian Update for Locally
Differentially Private Mechanisms
- arxiv url: http://arxiv.org/abs/2307.07744v1
- Date: Sat, 15 Jul 2023 08:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 18:09:11.806432
- Title: On the Utility Gain of Iterative Bayesian Update for Locally
Differentially Private Mechanisms
- Title(参考訳): 局所微分的プライベート機構に対する反復ベイズ更新の有用性について
- Authors: H\'eber H. Arcolezi and Selene Cerna and Catuscia Palamidessi
- Abstract要約: 局所微分プライベート (LDP) 機構で隠蔽されたデータを用いて, プライベートな離散分布推定にイテレーティブベイズ更新 (IBU) を用いる。
IBU と Matrix Inversion (MI) の性能を比較し,複数のデータ収集のために設計された 7 つの LDP 機構と 7 つの LDP 機構を比較した。
以上の結果から,IBUは,追加のプライバシコストを伴わずに,異なるシナリオにおけるLPPメカニズムの有用性を向上させる上で有用な後処理ツールである可能性が示唆された。
- 参考スコア(独自算出の注目度): 4.525735598810446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the utility gain of using Iterative Bayesian Update
(IBU) for private discrete distribution estimation using data obfuscated with
Locally Differentially Private (LDP) mechanisms. We compare the performance of
IBU to Matrix Inversion (MI), a standard estimation technique, for seven LDP
mechanisms designed for one-time data collection and for other seven LDP
mechanisms designed for multiple data collections (e.g., RAPPOR). To broaden
the scope of our study, we also varied the utility metric, the number of users
n, the domain size k, and the privacy parameter {\epsilon}, using both
synthetic and real-world data. Our results suggest that IBU can be a useful
post-processing tool for improving the utility of LDP mechanisms in different
scenarios without any additional privacy cost. For instance, our experiments
show that IBU can provide better utility than MI, especially in high privacy
regimes (i.e., when {\epsilon} is small). Our paper provides insights for
practitioners to use IBU in conjunction with existing LDP mechanisms for more
accurate and privacy-preserving data analysis. Finally, we implemented IBU for
all fourteen LDP mechanisms into the state-of-the-art multi-freq-ldpy Python
package (https://pypi.org/project/multi-freq-ldpy/) and open-sourced all our
code used for the experiments as tutorials.
- Abstract(参考訳): 本稿では, 局所微分プライベート (LDP) 機構を使用せず, 個別分布推定にイテレーティブベイズ更新 (IBU) を用いる場合の有用性について検討する。
IBU と Matrix Inversion (MI) の性能を比較し,1回のデータ収集用に設計された 7 つの LDP 機構と,複数のデータ収集用に設計された 7 つの LDP 機構 (例えば RAPPOR) を比較した。
また,本研究の範囲を広げるために,実世界のデータと実世界のデータを用いて,実用性指標,ユーザ数n,ドメインサイズk,プライバシパラメータ {\epsilon} を変化させた。
以上の結果から, IBUは, 追加のプライバシコストを伴わずに, 異なるシナリオにおけるLPPメカニズムの有用性を向上させる上で有用な後処理ツールである可能性が示唆された。
例えば、我々の実験では、IBUはMIよりも優れたユーティリティを提供し、特に高いプライバシー体制(例えば、 {\epsilon} が小さいとき)で実現可能であることが示されています。
本稿は,IBUと既存のLPP機構を併用して,より正確かつプライバシー保護的なデータ分析を行うための知見を提供する。
最後に14のldpメカニズムをすべて、最先端のマルチfreq-ldpy pythonパッケージ(https://pypi.org/project/multi-freq-ldpy/)に実装しました。
関連論文リスト
- Locally Private Sampling with Public Data [2.6334346517416876]
ローカルディファレンシャルプライバシ(LDP)は、ユーザのデータを保護するために、プライバシ保護機械学習にますます採用されている。
本稿では,各ユーザのプライベートデータセットとパブリックデータセットの両方を活用する,ローカルなプライベートサンプリングフレームワークを提案する。
この目的を,ユーティリティ尺度として$f$-divergenceを用いて最小限の最適化問題とする。
論文 参考訳(メタデータ) (2024-11-13T17:17:16Z) - Scalable DP-SGD: Shuffling vs. Poisson Subsampling [61.19794019914523]
バッチサンプリングをシャッフルしたマルチエポック適応線形クエリ(ABLQ)機構のプライバシ保証に対する新たな下位境界を提供する。
ポアソンのサブサンプリングと比較すると大きな差がみられ, 以前の分析は1つのエポックに限られていた。
本稿では,大規模な並列計算を用いて,Poissonサブサンプリングを大規模に実装する実践的手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T19:06:16Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - A Hassle-free Algorithm for Private Learning in Practice: Don't Use Tree Aggregation, Use BLTs [4.736297244235246]
本稿では,最近導入されたBuffered Linear Toeplitz (BLT) メカニズムをマルチ参加シナリオに拡張する。
我々のBLT-DP-FTRLは、木集約の使いやすさを維持しつつ、実用性とプライバシの観点から行列の分解にほぼ一致する。
論文 参考訳(メタデータ) (2024-08-16T17:52:22Z) - Locally Private Estimation with Public Features [2.9562742331218725]
本研究では,公共性を考慮した地域差分学習(LDP)について検討した。
半機能LDPでは,非パラメトリック回帰の最小収束速度が著しく低下することを示した。
本研究では,パブリック機能とプライベート機能の両方に含まれる情報を完全に活用する推定器を提案する。
論文 参考訳(メタデータ) (2024-05-22T09:47:54Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Locality Sensitive Hashing with Extended Differential Privacy [4.328040096675791]
拡張差分プライバシーは、一般的な計量を用いた標準差分プライバシーの一般化である。
拡張DPに関する既存の研究は、ユークリッド計量のようないくつかの指標に限られている。
角距離が拡張されたDPを提供する2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T11:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。