論文の概要: Bayesian Inference Under Differential Privacy With Bounded Data
- arxiv url: http://arxiv.org/abs/2405.13801v2
- Date: Wed, 16 Oct 2024 20:29:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:15:34.387692
- Title: Bayesian Inference Under Differential Privacy With Bounded Data
- Title(参考訳): 境界データによる差分プライバシー下のベイジアン推論
- Authors: Zeki Kazan, Jerome P. Reiter,
- Abstract要約: 我々は,事前分布を特定する際に,境界によって課される制約を考慮に入れることができることを示す。
我々は、デフォルト前のクラスのどのクラスが、微分プライベートリリースに対して有効な推論を生成するかについて、理論的および実証的な結果を提供する。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License:
- Abstract: We describe Bayesian inference for the parameters of Gaussian models of bounded data protected by differential privacy. Using this setting, we demonstrate that analysts can and should take constraints imposed by the bounds into account when specifying prior distributions. Additionally, we provide theoretical and empirical results regarding what classes of default priors produce valid inference for a differentially private release in settings where substantial prior information is not available. We discuss how these results can be applied to Bayesian inference for regression with differentially private data.
- Abstract(参考訳): 差分プライバシーで保護された有界データのガウスモデルのパラメータに対するベイズ推定について述べる。
この設定を用いて、事前の分布を特定する際に、アナリストが境界によって課される制約を考慮し、考慮すべきであることを示す。
さらに,プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・プリミティブ・
差分プライベートデータを用いた回帰のベイズ推定に対して,これらの結果がどのように適用できるかを論じる。
関連論文リスト
- Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Differential Privacy of Dirichlet Posterior Sampling [0.0]
ディリクレ後部分布から1枚のドローを放出する固有のプライバシーについて検討する。
トランカットされた集中微分プライバシー(tCDP)の概念により、ディリクレ後方サンプリングの単純なプライバシー保証を導き出すことができる。
論文 参考訳(メタデータ) (2021-10-03T07:41:19Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Differentially Private Bayesian Inference for Generalized Linear Models [21.942149563564968]
ロジスティック回帰のような一般化線形モデル(GLM)は、データアナリストのレパートリーにおいて最も広く使われている武器の一つである。
本稿では,GLMの雑音を考慮したDPベイズ推定手法を提案する。
本モデルから得られた後部は,強いプライバシー保証に固執する一方で,非私的後部に近いものであることを実験的に実証した。
論文 参考訳(メタデータ) (2020-11-01T10:38:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。