論文の概要: A Unified Approach to Differentially Private Bayes Point Estimation
- arxiv url: http://arxiv.org/abs/2211.10332v1
- Date: Fri, 18 Nov 2022 16:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:36:26.471335
- Title: A Unified Approach to Differentially Private Bayes Point Estimation
- Title(参考訳): 個人差分ベイズ点推定への統一的アプローチ
- Authors: Braghadeesh Lakshminarayanan and Cristian R. Rojas
- Abstract要約: 推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
- 参考スコア(独自算出の注目度): 7.599399338954307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parameter estimation in statistics and system identification relies on data
that may contain sensitive information. To protect this sensitive information,
the notion of \emph{differential privacy} (DP) has been proposed, which
enforces confidentiality by introducing randomization in the estimates.
Standard algorithms for differentially private estimation are based on adding
an appropriate amount of noise to the output of a traditional point estimation
method. This leads to an accuracy-privacy trade off, as adding more noise
reduces the accuracy while increasing privacy. In this paper, we propose a new
Unified Bayes Private Point (UBaPP) approach to Bayes point estimation of the
unknown parameters of a data generating mechanism under a DP constraint, that
achieves a better accuracy-privacy trade off than traditional approaches. We
verify the performance of our approach on a simple numerical example.
- Abstract(参考訳): 統計およびシステム同定におけるパラメータ推定は、機密情報を含む可能性のあるデータに依存する。
この機密情報を保護するために,推定値にランダム化を導入して機密性を強制する「emph{differential privacy} (DP)」の概念が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
ノイズの増加は、プライバシを高めながら精度を低下させるため、精度とプライバシーのトレードオフにつながる。
本稿では,DP制約下でのデータ生成機構の未知パラメータをベイズポイントで推定するUnified Bayes Private Point (UBaPP) 手法を提案する。
簡単な数値的な例で,本手法の有効性を検証する。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Privacy-Preserving Set-Based Estimation Using Differential Privacy and Zonotopes [2.206168301581203]
大規模サイバー物理システムでは、状態推定を行うために空間分布センサの協調が必要であることが多い。
プライバシの懸念は、機密性の高い測定結果をクラウド推定器に開示することにある。
本稿では,推定集合における真の状態の保持と,感度測定のための差分プライバシーを保証する,差分プライベートな集合ベース推定プロトコルを提案する。
論文 参考訳(メタデータ) (2024-08-30T13:05:38Z) - Adaptive Differentially Quantized Subspace Perturbation (ADQSP): A Unified Framework for Privacy-Preserving Distributed Average Consensus [6.364764301218972]
本稿では適応微分量子化部分空間(ADQSP)という一般手法を提案する。
本研究では,単一の量子化パラメータを変化させることで,提案手法がSMPC型の性能とDP型性能に異なることを示す。
この結果から,従来の分散信号処理ツールを暗号保証に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-12-13T07:52:16Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Locally Differentially Private Bayesian Inference [23.882144188177275]
ローカルディファレンシャルプライバシ(LDP)は、アグリゲータが信頼できないいくつかのシナリオにおいて、プライバシを保存するデータ収集の選択手法として登場した。
ベイジアン推論は,LDPの下でのプライバシに付加されるノイズを考慮し,ノイズを考慮した確率的モデリングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-27T13:36:43Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。